Anova PDF

Title Anova
Author Carmen Millán
Course Disseny d'Estudi Experimentals i Quasiexperimentals
Institution Universitat Ramon Llull
Pages 5
File Size 346.4 KB
File Type PDF
Total Downloads 75
Total Views 152

Summary

Disseny d'Estudi Experimentals i Quasiexperimentals ANOVA...


Description

ANÁLISIS DE LA VARIANZA (ANOVA) CON MUESTRAS INDEPENDIENTES Si queremos comprobar si existen diferencias estadísticamente significativas entre las medias de más de dos grupos hace falta que apliquemos un análisis de la varianza (ANOVA). En caso de que dispongamos de una única variable independiente estaremos hablando de una ANOVA unifactorial. Condiciones de aplicación: ● Los grupos representan muestras aleatorias y de poblaciones independientes ● La variable cuantitativa se distribuye siguiendo la distribución normal ● Homocedasticidad de varianzas Desarrollo de la prueba

Cada una de las puntuaciones obtenidas por los sujetos presenta una desviación sobre la media total de las puntuaciones. Esta desviación se puede descomponer en una desviación debida al grupo al que pertenecen los sujetos (o diferencia entre la media del grupo al que pertenece el sujeto y la media total) y una desviación obtenida entre la puntuación del sujeto y la media de su grupo.

La lógica de la prueba consiste en estimar la variabilidad entre las medias de cada grupo (varianza entre grupos) y por otro lado estimar la variabilidad de las puntuaciones dentro de cada grupo (varianza intra grupos o residual). Si no existen diferencias estadísticamente significativas entre las medias de los diferentes grupos, las estimaciones de ambas varianzas serán muy similares. En cambio, en caso de que existan diferencias estadísticamente significativas entre los grupos, la varianza entre grupos tendrá un valor superior a la varianza residual (intra grupos).

Por lo tanto, la desviación de una puntuación respecto a la media total se descompone en dos partes: 1) varianza explicada, debida a la pertenencia del sujeto a un determinado grupo y 2) varianza no explicada, debida a la variabilidad que se produce dentro del propio grupo y generada por las características del sujeto, errores de medida o el azar.

El ANOVA se basa en la Suma de cuadrados total (suma de las diferencias entre cada valor y la media total de los sujetos), que expresa la variación total de los datos. La suma de cuadrados (SQ) total se descompone en:

1) Suma de cuadrados entre grupos: suma de cuadrados de las diferencias entre la media de cada grupo y el total (multiplicada por el número de sujetos de los grupos), que expresa la variación de las medias de los grupos respecto a la media total 2) Suma de cuadrados intragrupo o residual: indica la suma de cuadrados de las diferencias entre los valores y la media de su grupo, o variación que se produce dentro de cada grupo.

Las sumas de cuadrados son los numeradores de la varianza. Por lo tanto, si dividimos cada suma de cuadrados entre los grados de libertad asociados (denominados gl o v), tendremos los valores de la varianza correspondientes. En el contexto del ANOVA, estos cocientes se denominan cuadrados medianos. Los grados de libertad para cada uno de los términos son: ● Para el total de sujetos, gl = (N-1) ● Para la variación entre grupos, gl = (k-1), siendo k el número de grupos ● Para la variación intra grupos, gl = (N-k)

El estadístico de contraste en el ANOVA será la F de Snedecor. El valor F se obtiene de dividir los cuadrados medianos entre grupos entre el valor de los cuadrados medianos intra grupos o residual. Por lo tanto, el estadístico de contraste FEC es un cociente entre dos varianzas y se distribuye según la distribución teórica de la F de Snedecor con k-1 grados de libertad al numerador (v1) y N-k grados de libertad al denominador (v2).

Además, tendremos que conocer el nivel de confianza asumido. A partir de la tabla de distribución de la F podemos concluir si existen diferencias estadísticamente significativas entre grupos:

En caso de que rechazamos la hipótesis nula (existen diferencias estadísticamente significativas entre los grupos), podemos calcular el tamaño del efecto para conocer qué porcentaje de la variabilidad de los datos se debe a la pertenencia a uno u otro grupo. El tamaño del efecto (R2) es resultado de dividir la suma de cuadrados entre grupos entre la suma de cuadrados total. Ejemplo con SPSS

En un experimento sobre percepción se quiere estudiar el efecto de la intensidad luminosa (baja, mediana, alta) sobre el rendimiento en una prueba de discriminación visual. Mediante un anuncio al corcho de una facultad de Psicología se piden voluntarios/aries que quieran participar en el estudio. Los 24 participantes son asignados al azar a uno de los tres grupos de intensidad luminosa: baja, media o alta.

La variable independiente afecta la variable dependiente? Razona la respuesta. Observando los resultados obtenidos por la prueba de Scheffé explicáis entre qué parejas de grupos se observan diferencias significativas. Riesgo de error 5%.

En este caso queremos ver si existen diferencias entre las puntuaciones obtenidas por 3 grupos de sujetos en relación al rendimiento.

En primer lugar, hay que comprobar que se cumple la condición de aplicación de homocedasticidad de varianzas.

El tamaño total de la muestra es de 24 sujetos. Por lo tanto, los grados de libertad para cada uno de los términos son: ● Para el total de sujetos, gl = (N-1) = 23 ● Para la variación entre grupos, gl = (k-1) = 2 ● Para la variación intra grupos, gl = (N-k) = 21

✔ Los resultados obtenidos mediante el SPSS nos muestra la suma de cuadrados de las diferentes fuentes de variación (entre grupos e intra grupos) y total ✔ Dividiendo la suma de cuadrados entre los correspondientes grados de libertad obtenemos los cuadrados medianos (media cuadrática) ✔ El estadístico de contraste F se obtiene de dividir los cuadrados medianos entre grupos (también denominados inter-grupos) entre los cuadrados medianos intra grupos ✔ Hay que recordar que SQtotal = SQentre+ SQintra

El ANOVA nos ha indicado que existen diferencias estadísticamente significativas (p< .05) entre los grupos, pero nos interesará saber entre qué grupos en concreto se dan estas diferencias. Con este objetivo se aplican los contrastes a posteriori (post hoc). Una de las pruebas post hoc más generalizadas es la prueba de Scheffé.

La prueba de Scheffé nos permite hacer comparaciones de las medias de los grupos, siempre tomando las medias de dos en dos. A partir de la significación obtenida en cada una de las comparaciones podremos identificar entre qué grupos concretos se dan las diferencias.

En el siguiente ejemplo podemos ver como existen diferencias estadísticamente significativas entre el grupo “intensidad baja” y “intensidad mediana” (primera hilera de resultados), dado que el nivel de significación (p < .0001) es inferior al valor alfa fijado (0.05). Por lo tanto, el grupo “intensidad baja” obtiene puntuaciones de rendimiento inferiores a las obtenidas en el grupo “intensidad mediana” (este hecho se puede corroborar al consultar la tabla de estadísticos descriptivos obtenida al inicio del análisis).

En cambio, vemos que al comparar el grupo “intensidad baja” con el grupo “intensidad alta” (segunda hilera de resultados), no se obtienen diferencias estadísticamente significativas, dado que la significación (p = .051) es superior al valor alfa (0.05). De acuerdo con este procedimiento tendremos que interpretar todos los contrastes realizados.

Hay que destacar que además de la diferencia de medias entre los grupos disponemos del intervalo de confianza de estas diferencias. Tal y como se ha comentado anteriormente, si el intervalo de confianza no incluye el valor 0, será una forma equivalente de mostrar que la diferencia es estadísticamente significativa en el nivel α utilizado....


Similar Free PDFs