Investigación documental PDF

Title Investigación documental
Course Estadistica Aplicada Para Administracion
Institution Universidad Autónoma de Tlaxcala
Pages 9
File Size 118.5 KB
File Type PDF
Total Downloads 20
Total Views 599

Summary

Estadística Inferencial ITema 4. Pruebas de hipótesis con dos muestras y varias muestras de datos numéricos.Actividad 1. Investigar los siguientes subtemas.4 Introducción4 Distribuciones normal y t de Student.4 pruebas de significancia.4 Comparación de dos muestras independientes; pruebas t para las...


Description

Estadística Inferencial I Tema 4. Pruebas de hipótesis con dos muestras y varias muestras de datos numéricos. Actividad 1. Investigar los siguientes subtemas. 4.1 Introducción 4.2 Distribuciones normal y t de Student. 4.3 pruebas de significancia. 4.4 Comparación de dos muestras independientes; pruebas t para las diferencias entre dos medias. 4.5 Pruebas de Fisher para varianza y de igualdad de las varianzas de dos poblaciones normales. 4.6 Comparaciones de dos muestras pareadas. 4.7 Modelo totalmente aleatorio; análisis de varianza de un factor. 4.8 Selección del tamaño de muestra para estimar la diferencia de dos medias.

Zihuatanejo, Gro., a 29 de abril de 2019

4.1 Introducción En el problema de estimación se trata de elegir el valor de un parámetro de la población, mientras que en las pruebas de hipótesis se trata de decidir entre aceptar o rechazar un valor especificado (por ejemplo, si el nivel de centramiento de un proceso es o no lo es). Prueba

de hipótesis: Estadísticamente una prueba de hipótesis es cualquier afirmación acerca de una población y/o sus parámetros. Una prueba de hipótesis consiste en contrastar dos hipótesis estadísticas. Tal contraste involucra la toma de decisión acerca de las hipótesis. La decisión consiste en rechazar o no una hipótesis en favor de la otra. Una hipótesis estadística se denota por “H” y son dos: - Ho: hipótesis nula - H1: hipótesis alternativa Partes de una hipótesis 1-La hipótesis nula “Ho” 2-La hipótesis alternativa “H1” 3-El estadístico de prueba 4-Errores tipo I y II 5-La región de rechazo (crítica) 6-La toma de decisión 1. Una prueba de hipótesis estadística es una conjetura de una o más poblaciones. Nunca se sabe con absoluta certeza la verdad o falsedad de una hipótesis estadística, a no ser que se examine la población entera. Esto por su puesto sería impráctico en la mayoría de las situaciones. En su lugar, se toma una muestra aleatoria de la población de interés y se utilizan los datos que contiene tal muestra para proporcionar evidencia que confirme o no la hipótesis. La evidencia de la muestra que es un constante con la hipótesis planteada conduce a un rechazo de la misma mientras que la evidencia que apoya la hipótesis conduce a su aceptación

4.2 Distribuciones normal y t de Student. En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece en fenómenos reales. La gráfica de su función de densidad

tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss. La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas sin dependientes. De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional. La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos. La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muéstrales es aproximadamente normal, cuando la distribución de la población de la cual se extrae la muestra no es normal. Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos test estadísticos están basados en una supuesta "normalidad". En probabilidad y estadística, la distribución t (de Student) es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Aparece de manera natural al realizar la prueba t de Student para la determinación de las

diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones cuando se desconoce la desviación típica de una población y ésta debe ser estimada a partir de los datos de una muestra. Si μ es una constante no nula, el cociente es una variable aleatoria que sigue la distribución t de Student no central con parámetro de no-centralidad μ.[ CITATION Día91 \l 2058 ]

4.3 pruebas de significancia Las pruebas de significancia estadística son un procedimiento que brinda un criterio objetivo para calificar las diferencias que se presentan al comparar los resultados de dos muestras, con el objetivo de explicar si dichas diferencias se mantienen dentro de los límites previstos por el diseño estadístico (un error y una confianza esperados) o si, por el contrario, la diferencia entre ellas resulta lo suficientemente grande como para inferir que ha ocurrido un cambio real en el indicador

4.4 comparación de dos muestras independientes: pruebas t para las diferencias entre medias. Si se trata de muestras grandes e independientes y si se conocen las verdaderas varianzas de las poblaciones correspondientes, el estadístico de prueba es la ya conocida Z estandarizada. Sin embargo, el caso más común es que no se conozcan las varianzas, entonces se utilizan las de las muestras para estimarlas, y el procedimiento es exactamente igual. La única diferencia entre las fórmulas para calcular el estadístico de prueba y el error estándar

de la diferencia entre dos medias, cuando se utilizan datos muestrales es que se sustituye S² por σ².

4.5 Pruebas de Fisher para varianza y de igualdad de las varianzas de dos poblaciones normales. Para probar si existe o no la diferencia entre las varianzas de dos poblaciones puede utilizarse como estadístico de prueba de F de la distribución de F de Fisher, llamada así en honor del destacado estadístico Ronald Aylmer Fisher, que se calcula como el cociente de las varianzas de dos poblaciones:

F=

σ ²₁ σ ²₂

Que sería la expresión teoría de F. Y el valor calculado de F a partir de las varianzas muestrales. La prueba se lleva a cabo sobre la diferencia hipotética entre dos varianzas poblaciones: Ho= σ₁ ²- σ₂ ²= 0: para realizarla se obtienen las varianzas de dos muestras tomadas de dos poblaciones diferentes. En otras palabras, esta prueba se realiza para las poblaciones independientes, las que suele identificarse como 1 y 2. Las dos varianzas muestrales son las que se utilizan como base para hacer inferencias sobre sus correspondientes parámetros. Si puede asumirse que las dos varianzas poblaciones son iguales, σ²₁=σ²₂, entonces se utiliza como estadístico de prueba, la distribución F con n₁ -1 grados de libertad para el numerador y n₁ -1 grados de libertad para el denominador, ya que el estadístico de prueba se calcula con los datos muestrales se construye un cociente.

La necesidad de disponer de métodos estadísticos para comparar las varianzas de dos poblaciones es evidente a partir del análisis de una sola población. Frecuentemente se desea comparar la precisión de un instrumento de medición con la de otro, la estabilidad de un proceso de manufactura con la de otro o hasta la forma en que varía el procedimiento para calificar de un profesor universitario con la de otro.

4.6 Comparaciones de dos muestras pareadas. Una de las hipótesis sobre las que habitualmente se fundamentan las pruebas estadísticas de comparación es que las observaciones pertenecientes a cada una de las muestras son independientes entre sí, no guardan relación; siendo precisamente ese uno de los objetivos de la aleatorización (elección aleatoria de los sujetos o unidades de observación). Sin embargo, la falta de independencia entre las observaciones de los grupos puede ser una característica del diseño del estudio para buscar fundamentalmente una mayor eficiencia del contraste estadístico al disminuir la variabilidad. En otras ocasiones con este tipo de diseño pareado lo que se busca es dar una mayor validez a las inferencias obtenidas, controlando o eliminando la influencia de variables extrañas cuyo efecto ya es conocido o sospechado, y no se desea que intervenga en el estudio actual pudiendo enmascarar el efecto del tratamiento o de la variable de interés. Las muestras apareadas se obtienen usualmente como distintas observaciones realizadas sobre los mismos individuos. Un ejemplo de observaciones pareadas consiste en considerar a un conjunto de n personas a las que se le aplica un tratamiento médico y se mide por ejemplo el nivel de insulina en la sangre antes (X) y después del mismo (Y). En este ejemplo no es posible considerar aX eY como variables independientes ya que va a existir una dependencia clara entre las dos variables.

Pruebas para muestras pareadas cuando no se conocen las varianzas pero no se necesita asumir que sean iguales. Se analizó el caso de una prueba para la diferencia entre 2 medias provenientes de poblaciones independientes. Aquí se analizará el caso de la diferencia entre 2 medias provenientes de poblaciones pareadas o relacionadas. Es importante tener presente las circunstancias de estos casos: 

Se trata de muestras pareadas.



Los tamaños de muestras son pequeños.



La variable se distribuye de forma normal en la población.

En este caso, la prueba se convierte en una prueba sobre la diferencia entre las observaciones, ya que se calculan las diferencias entre: 1.- Dos individuos de la misma especie sometidos a tratamientos diferentes (pareamientos de individuos según una característica de interés) 2.- Dos mediciones hechas a los mismos individuos.

4.7 Modelo totalmente aleatorio; análisis de varianza de un factor. Quizás el más común es el diseño completamente aleatorizado a una vía. El término proviene del hecho que varios sujetos o unidades experimentales se asignan aleatoriamente a diferentes niveles de un solo factor. Por ejemplo: varios empleados (unidades experimentales) pueden seleccionarse aleatoriamente para participar en diversos tipos (niveles diferentes) de un programa de capacitación (el factor). El análisis de varianza se basa en una comparación de la cantidad de variación en cada uno de los tratamientos. Si de

un tratamiento al otro la variación es significativamente alta, puede concluirse que los tratamientos tienen efectos diferentes en las poblaciones. a. Esta variación entre el número total de las 14 observaciones. Esto se llama variación total. b. Existe variación entre los diferentes tratamientos (muestras). Esto se llama variación entre muestras. c. Existe variación dentro de un tratamiento dado (muestra). Esto se denomina variación dentro de la muestra Se extraen dos muestras aleatorias independientes de tamaño n₁ y n₂ , respectivamente, de dos poblaciones con medias µ₁ y µ₂ , y varianzas σ₁ y σ₂ . Sabemos que la variable aleatoria tiene una distribución normal estándar.

4.8 Selección del tamaño de muestra para estimar la diferencia de dos medias. En Estadística el tamaño de la muestra es el número de sujetos que componen la muestra extraída de una población, necesarios para que los datos obtenidos sean representativos de la población. 1.- Estimar un parámetro determinado con el nivel de confianza deseado. 2.- Detectar una determinada diferencia, si realmente existe, entre los grupos de estudio con un mínimo de garantía. 3.Reducir costes o aumentar la rapidez del estudio. Por ejemplo, en un estudio de investigación epidemiológico la determinación de un tamaño adecuado de la muestra

tendría como objetivo su factibilidad. Así :Si el número de sujetos es insuficiente habría que modificar los criterios de selección, solicitar la colaboración de otros centros o ampliar el periodo de reclutamiento. Los estudios con tamaños muestrales insuficientes, no son capaces de detectar diferencias entre grupos, llegando a la conclusión errónea de que no existe tal diferencia. Si el número de sujetos es excesivo, el estudio se encarece desde el punto de vista económico y humano. Además, es poco ético al someter a más individuos a una intervención que puede ser menos eficaz o incluso perjudicial. El tamaño de una muestra es el número de individuos que contiene. Una fórmula muy extendida que orienta sobre el cálculo del tamaño de la muestra para datos globales es la siguiente: n = ( (k^2) * N*p*q) / ( (e^2 * (N1) )+( (k^2) * p*q))N: es el tamaño de la población o universo (número total de posibles encuestados).k: es una constante que depende del nivel de confianza que asignemos. El nivel de confianza indica la probabilidad de que los resultados de nuestra investigación sean ciertos: un 95,5 % de confianza es lo mismo que decir que nos podemos equivocar con una probabilidad del 4,5%. Se puede utilizar un procedimiento similar para determinar el tamaño de la muestra n= n₁ =n₂ que se requiere para una potencia especifica de la prueba en que se comparan dos medias poblacionales.

Bibliografía Díaz Mata, A. (1991). Estadística aplicada a la administración y la economía. México: McGraw Hill....


Similar Free PDFs