T2 - DISEÑOS EXPERIMENTALES MULTIGRUPO PDF

Title T2 - DISEÑOS EXPERIMENTALES MULTIGRUPO
Course Dissenys de Recerca
Institution Universitat de Barcelona
Pages 7
File Size 422 KB
File Type PDF
Total Downloads 404
Total Views 808

Summary

Tema 2- Diseños experimentales de dos grupos y multigrupo Definición: Los diseños experimentales de grupos son aquellos en los que se utilizan dos o más grupos que reciben los distintos tratamientos (estrategia entre-sujetos). Cada grupo recibirá una condición o tratamiento distinta (un valor distin...


Description

Tema 2- Diseños experimentales de dos grupos y multigrupo Definición: Los diseños experimentales de grupos son aquellos en los que se utilizan dos o más grupos que reciben los distintos tratamientos (estrategia entre-sujetos). Cada grupo recibirá una condición o tratamiento distinta (un valor distinto de la variable independiente). Clasificación: Los diseños experimentales de grupos pueden ser:  En función de su capacidad para controlar las variables extrañas y reducir la variancia de error: de grupos al azar o de grupos homogéneos.  Según el número de VIs: simple (1 VI) o factorial (2 o + VI).  Los diseños simples pueden ser de dos tipos según el número de valores de la VI: bicondicional (2 grupos) o multicondicional (min 3 grupos). DISEÑO EXPERIMENTAL DE DOS GRUPOS Es un diseño que se usa poco porque es un diseño muy sencillo y nos aporta poca información. Hay un contexto en concreto donde si que se utilizan, que es en el ámbito de la clínica. Definición: Una de las situaciones más simples de investigación experimental es aquella en la que se trabaja con dos grupos, normalmente uno de control y otro experimental. Los diseños de dos grupos pueden ser: -

Diseño de dos grupos completamente al azar Diseño de dos grupos emparejados

DISEÑO MULTIGRUPO AL AZAR Los diseños multigrupo son estructuras con una sola variable independiente de tres o más valores o niveles. El diseño multigrupo totalmente al azar requiere la asignación aleatoria de los sujetos de la muestra a los distintos grupos, sin restricción alguna. ✓ Ventaja: Nos permite asumir la equivalencia inicial de los grupos  Inconveniente: Mucha variancia de error, por lo tanto, poco sensibles para interpretar el efecto del tratamiento. Análisis estadístico ▪

Prueba de significación general → Análisis de la variancia (ANOVA) unifactorial para datos independientes. Datos no relacionados.



Si la variable independiente es categórica o cuantitativa → Comparaciones múltiples (contrastes parciales).



Si la variable independiente es cuantitativa → Análisis de tendencias

Ejemplo: niños con déficit de atención por actividad; se usarán dos técnicas en dos grupos diferentes y uno control. Se aplicará en un grupo de tratamiento psicológico y otro tratamiento farmacológico. Para analizar los resultados de manera estadística se podrá usar la ANOVA y las comparaciones múltiples, pero no el análisis de tendencias, porque nuestras variables son categóricas y eso es solo para variables cuantitativas. Ejemplo 1 Se pretende probar si la cantidad de repasos es una variable decisiva para el recuerdo. Los sujetos (n=20) deben leer en voz alta una lista de ítems. El primer grupo leerá la lista una sola vez (condición a1), el segundo la leerá dos veces (condición a2), el tercero tres veces (condición a3) y el cuarto cuatro veces (condición a4). Al terminar las lecturas, los sujetos realizan una prueba de memoria que consiste en restituir o recuperar de la memoria la mayor cantidad de ítems. La medida de la variable dependiente es la cantidad de respuestas o ítems correctamente recordados.

Un análisis de la variancia lo que hace es descomponer la variabilidad total en la variable dependiente en la variabilidad explicada (que se puede explicar) y no explicada. Variancia explicada: Las condiciones expuestas a cada grupo, efecto de la variable independiente (en este caso seria el número de veces que dejamos leer la lista a los grupos (variabilidad entre grupos). Variabilidad no explicada: Se encuentra dentro de cada grupo, en este caso es porque no todas recuerda el mismo numero de ítems. Esta variabilidad esta provocada a las variables extrañas debidas a el efecto aleatorio, diferencias individuales, concentración… Supuestos del ANOVA Existen tres supuestos que han de cumplirse si queremos aplicar un AVAR: 1. Independencia de las observaciones: se refiere a que las puntuaciones de los distintos individuos no han de covariar entre sí. Es decir, que los datos no tienen que estar relacionados. 2. Normalidad de los datos: el conjunto de residuales en la población debe distribuirse según una ley normal. Nuestra variable dependiente en la población se tiene ajustar a

un modelo de probabilidad normal. Que un valor sea robusto significa que no está muy lejos del valor real. 3. Homocedasticidad: para una correcta utilización del ANOVA es necesario que las variancias intragrupo sean homogéneas (σ1 ² = σ2 ² = ... = σj ²). Las variancias poblacionales han de ser estadísticamente iguales. Se necesitará una prueba estadística que compare variancias intrapoblacionales para comprobar si estas son iguales o no. Hay muchas, pero usaremos la prueba de LEVENE, donde la hipótesis nula seria σ1 ² = σ2 ² = ... = σj ² (el número de variancias serán el numero de poblaciones que comparamos. Prueba de homogeneidad de variancias para el Ejemplo 1

En este caso NO se rechaza la hipótesis nula y por lo tanto las variancias de error de la variable dependiente son iguales entre grupos. Proceso de decisión estadística para el ANOVA -

Paso 1. La hipótesis de nulidad asume que los grupos experimentales proceden de la misma población y, por consiguiente, las medias son idénticas: H0: µ1=µ2=µ3=µ4 Paso 2. La hipótesis alternativa asume que por lo menos hay diferencias entre dos medias. H1: ∃i, j - µi ≠ µj Paso 3. Se aplica el ANOVA cuyo estadístico es la F de Snedecor y se obtiene la probabilidad asociada al estadístico

Cuadro resumen del ANOVA para el ejemplo 1

-

Paso 4. Como el nivel de significación es inferior a 0.05 se rechaza la hipótesis de nulidad y se acepta la hipótesis alternativa. Un rechazo de la hipótesis nula significa que, por lo menos, hay diferencias entre dos medias.

Dado que el ANOVA es un contraste global, una F significativa sólo demuestra que al menos una diferencia entre las medias del factor es estadísticamente significativa. Para concretar las diferencias detectadas por el ANOVA se deben llevar a cabo contrastes parciales o comparaciones múltiples.

Contraste parcial: es una comparación entre dos medias. Los contrastes se efectúan, por lo general, entre las medias de los grupos de tratamiento. Un contraste o comparación es una combinación lineal de las k medias de un factor definido como: ψµ µ µ µ cc c c = = + ++ = ∑ Los cj son coeficientes que se multiplican por cada media. Donde cj son cada uno de los coeficientes del contraste. La suma de los coeficientes ha de ser cero. Se pueden plantear dos tipos de contrastes; •



Los contrastes a priori o planificados se formulan de acuerdo con los intereses previos o teóricos del investigador, y se plantean antes de obtener los resultados del experimento. Se usarán en investigaciones con carácter confirmatorio, es decir, contrastar hipótesis previas. Los contrastes a posteriori o no planificados se formulan en función de los resultados obtenidos en el ANOVA y se llevan a cabo para extraer la máxima información de los datos del experimento. Tienen carácter exploratorio, no tienen hipótesis de partida. En estos casos se aplicará un análisis de la variancia y se hacen todas las posibles combinaciones por parejas de medias.

Las dos diferencias principales de estos dos métodos son los objetivos de cada uno y las técnicas estadísticas utilizadas. CONTRASTES A PRIORI La hipótesis nula será ψ=0. Ejemplo → lista lectura Hipótesis nula: el recuerdo de la lectura será el mismo cuando se presentan dos que cuando se presenta 1 vez la lista. Se realizará una tabla para que la suma de los coeficientes de 0, como las lecturas de tres y 4 veces no nos interesan, pondremos el valor 0. En el de una vez pondremos valor 1 y el de segunda vez pondremos -1

1r 1 C1 Ho: (1) µ1 + (-1) µ2 + (0) µ3 + (0) µ4= 0

2r

3r

4r

-1

0

0

Ho: µ1 - µ2=0 → Ho: µ1=µ2 Ahora queremos ver si el recuerdo con 3 repasos será mayor que el recuerdo con un repaso

C2

1r

2r

3r

4r

1

0

-1

0

Ho: µ1=µ3 Por último, veremos si el recuerdo repasando 4 veces será mayor con 1 lectura

C3 Ho: µ1=µ4

1r

2r

3r

4r

1

0

0

-1

Como contraste podríamos utilizar cualquier valor, pero por simplicidad escogemos valores bajos como el 1. Ahora queremos ver si repasar la lista tres veces hay mayor recuerdo que repasarla una o 2

C4

1r

2r

3r

4r

1

1

-2

0

Ho: (1) µ1 + (-1) µ2 + (-2) µ3 + (0) µ4= 0 Ho: µ1 + µ2 - 2µ3= 0 → Ho:

µ1 + µ2 2

= µ3

Coeficientes de los contrastes planificados para cinco ejemplos

Contrastes planificados: cinco ejemplos en el spss

CONTRASTES A POSTERIORI La principal desventaja de las comparaciones a priori es que a medida que aumenta el número de contrastes también se incrementa la probabilidad de cometer un error de tipo I o de rechazar la H0 siendo verdadera. Existen diversos métodos (por ejemplo, la corrección de Bonferroni) que permiten solventar este problema.

Los contrastes a posteriori tienen la ventaja de mantener constante la probabilidad de cometer errores de tipo I cuando se toma la decisión estadística. Entre dichas estrategias cabe destacar las pruebas de Scheffé, Tukey, Newman-Keuls, Duncan, y Dunnett. Nosotros optaremos por los contrastes de Scheffé, porque se usan por frecuencia ya que se pueden utilizar tanto si los grupos son iguales o desiguales, se puede usar, aunque no se cumpla la condición de normalidad y tampoco requieren el cumplimiento de homogeneidad de varianzas. De nuevo se trataría de tomar las decisiones estadísticas que corresponden y acabar de interpretar los resultados.

ANÁLISIS DE TENDENCIAS Este análisis nos permite intentar ajustar funciones matemáticas (tendencias) que relacionen la variable independiente con la variable dependiente. Las condiciones de aplicación son 2: -

Tanto la variable independiente como la variable dependiente han de ser cuantitativas. La variable independiente debe de tener 3 o más valores.

Antes de hacer el análisis tendremos que averiguar cuantas tendencias podremos ajustar: K-1 (k =número de grupos) En nuestro ejemplo seria 4-1=3, se podrían ajustar 3 tendencias. Dependiendo de la forma del gráfico, se podrán ajustar un tipo de tendencias, en nuestro caso: una lineal, una cuadrática y una cubica...


Similar Free PDFs