Análisis bivariable PDF

Title Análisis bivariable
Author Maialen Muñoz
Course Metodología
Institution Universitat Rovira i Virgili
Pages 13
File Size 408.6 KB
File Type PDF
Total Downloads 3
Total Views 155

Summary

Download Análisis bivariable PDF


Description

Análisis bivariable. Resumen Francesc Valls Fonayet

Introducción

El análisis bivariable determina si dos variables presentan algún tipo de asociación. Por lo tanto, es un análisis más amplio que el análisis univariable. Por otra parte, los análisis multivariables incorporan más de dos variables, pero no las trataremos en la asignatura.

recordatorios: ▪

Hay una amplia variedad de técnicas de análisis bivariable. Saber escoger la técnica adecuada es uno de los aspectos esenciales de la asignatura.



Lo que determina la técnica a utilizar es, principalmente, el tipo de variables que estamos investigando. Además, también tendremos que tener en cuenta si se cumplen ciertos requisitos (como el de Normalidad, en variables cuantitativas). Si no se cumplen, a menudo tenemos otras pruebas (no paramétricas) que son menos potentes pero que funcionan bien aunque no se cumplan los requisitos.



El análisis bivariable nos sirve para contrastar si dos variables están asociadas (y, además, también nos interese saber la dirección de la asociación, así como la intensidad). Por lo tanto, es uno de los requisitos para identificar una relación de causalidad. Los otros dos requisitos (antelación de la variable independiente y capacidad de neutralizar explicaciones alternativas) no dependen de la parte analítica sino del modelo metodológico escogido.

hipótesis estadísticas En los análisis bivariables trabajamos a partir de hipótesis estadísticas. La hipótesis nula (H 0) indica que no hay asociación entre las variables analizadas. El motivo es que las diferencias entre los grupos no son suficientemente relevantes. Por ejemplo: nos dice que las medias obtenidas entre un grupo experimental y un grupo de control no presentan diferencias.

La hipótesis alternativa (H 1) nos dice lo contrario: que sí se han detectado diferencias. Por lo tanto, podremos concluir que las dos variables están asociadas: por ejemplo, esto ocurre cuando los resultados finales de la variable dependiente en el grupo experimental son diferentes a los del grupo de control.

no rebutgemH 0

RebutgemH 0

H 0 es cierta

decisión correcta

Error de tipo I (alfa)

H 0 es falsa

Error de tipo II (beta)

decisión correcta

Para cada prueba estadística obtendremos la correspondiente probabilidad de cometer el error de tipo I (o error alfa). Caemos en este error cuando afirmamos que dos variables están asociadas cuando en realidad no lo están: es un falso positivo.

En consecuencia, cuando en una prueba estadística obtenemos una significación (p) pequeña, podemos afirmar con confianza que las dos variables están asociadas, ya que la probabilidad de cometer este error de tipo I es baja. Generalmente se aceptan valores que estén por debajo

1

de p 0,05 la probabilidad de cometer el error de tipo I es demasiado alta y, por tanto, no podemos rechazar la hipótesis nula.

El error beta equivale a un falso negativo: caemos cuando hay asociación entre variables pero nosotros no la detectamos. La mayoría no se puede calcular este error. Por lo tanto, el análisis bivariable se centra en los valores del error de tipo I.

1. Análisis de correlación

Es una de las técnicas de análisis utilizadas para identificar relaciones de asociación entre dos variables cuantitativas. Existen otras técnicas, como el análisis de regresión simple, que también se utilizan en este contexto, si bien se orientan a poder hacer predicciones (lo que no permite el análisis de correlación).

Gráfico 1. Representación gráfica de la correlación entre dos

variables (r = 1) 200

y

150

100

50

0 0

2

4

6

10

8

12

14

16

18

20

16

18

20

x

Gráfico 2. Representación gráfica de la correlación entre dos

variables (r = -1) 200

y

150 100 50

0 0

2

4

6

10

8

x

2

12

14

Gráfico 3. Representación gráfica de la correlación entre dos

variables (r = 0) 200

y

150

100

50

0 0

2

4

6

10

8

12

14

16

18

20

x

Gráfico 4. Representación gráfica de la correlación entre dos variables (r = 0,092) 200

150

100

50

0 0

10

5

15

20

25

El análisis de correlación nos da información de: a) La fuerza de la asociación entre dos variables cuantitativas. El coeficiente de correlación se mueve entre unos valores de 0 a 1: Comment cercano a 1 mayor potencia de la asociación, y Comment cercano a 0 mayor evidencia de que las dos variables son independientes. Podemos tomar como referencia los siguientes valores:

Valor del coeficiente de correlación

Interpretación de la correlación

0 a 0,2

muy baja

0,2 a 0,4

baja

0,4 a 0,6

moderada

0,6 a 0,8

considerable

0,8 a 1

Alta o muy alta

b) La dirección de la asociación. El signo del coeficiente de correlación nos indica la dirección: un signo negativo indica que las variables se comportan de manera inversa, mientras que un signo

3

positivo indica que las variables se comportan de manera similar. Alerta, el signo no indica la fuerza (r = -0,808 tiene la misma intensidad que r = 0,808).

c) La significación de la asociación. Además de saber todo esto, necesitamos evaluar la significación estadística (el valor p), que nos indica cuál es la posibilidad de equivocarnos si decimos que las dos variables están asociadas. Si el valor p es superior a 0,05, no podemos concluir que haya asociación significativa entre ambas variables (además, ya lo intuiremos con el valor del coeficiente de correlación, que será muy cercano a 0).

el coeficiente de correlación de Pearson es la prueba paramétrica. Esto quiere decir que para aplicarla hay que cumplir ciertos requisitos. Lo más relevante es que las variables deben presentar Normalidad (esto lo podemos contrastar con los contrastes de Normalidad: KolmogorovSmirnov o Shapiro-Wilk).

Si alguien tiene curiosidad, la fórmula del coeficiente de correlación de Pearson es:

r=

Σ y {( x y - X) * (y y - Y)} n * √Σ y ( x y - X) 2 n

y

* √Σ (y y - Y) 2 n

Y no entraremos por tiempo, pero es más sencilla de lo que puede parecer.

Si no se cumple el supuesto de Normalidad debemos optar por otra prueba, no paramétrica, como es la Rho de Spearman ( o coeficiente de correlación de Spearman). Además, esta prueba también se utiliza cuando las variables son ordinales. La interpretación de los resultados es la misma.

Ambas pruebas están disponibles en el programa JAMOVI, apartado Regresión / Correlación Parcial.

4

2. Contrastes de medias Los contrastes de medias sirven para comparar los resultados de una variable cuantitativa entre varios grupos (por ejemplo un grupo experimental y un grupo de control). El contraste determinará si la diferencia detectada entre los grupos es suficientemente grande: entonces descartaremos que se deba simplemente a una cuestión de azar y podremos asegurar que la diferencia se explica por el efecto que estamos investigando.

Gráfico 5. Ausencia de diferencias entre las medias

obtenidas a partir de diversos tratamientos 140 130 120 110 100 90 80 70 60 0,5

1

1,5

2

2,5

3

3,5

3

3,5

Gráfico 6. Existencia de diferencias entre las medias

obtenidas a partir de diversos tratamientos 140 130 120 110 100 90 80 70 60 0,5

1

1,5

2

2,5

Hay varios contrastes de medias. Debemos tener en cuenta: el número de grupos, si los grupos son independientes o están formados por la misma población, y si se cumplen ciertos requisitos:

Contrastes de medias entre dos grupos Prueba T de Student para muestras independientes. Es el modelo paramétrico para determinar si las medias de una variable cuantitativa medida para dos grupos diferentes (por ejemplo:

5

grupo experimental y grupo de control) difieren entre sí. Para aplicar esta prueba hay que cumplir ciertos requisitos.

Lo más relevante es que la variable cuantitativa sea Normal para cada uno de los dos grupos (esto lo podemos contrastar con los contrastes de Normalidad: Kolmogorov-Smirnov o Shapiro-Wilk).

Otro requisito es que las varianzas sean iguales en cada uno de los dos grupos. Si el tamaño de los dos grupos es similar (es decir, tienen el mismo número de casos), este requisito es menos relevante. De hecho, algunos programas estadísticos como SPSS proporcionan otra medida de T de Student aunque no se cumpla este requisito.

Para extraer las conclusiones debemos consultar los siguientes resultados: ▪

El estadístico T y, más concretamente, la significación (p). El tamaño del



efecto.



Complementariamente, podemos evaluar si el IC de la diferencia de las medias incluye el valor 0. Si sucede esto, sabremos que las diferencias no son suficientes: los dos grupos no presentan resultados diferentes (esto es complementario, ya lo habremos visto previamente con la significación).

Prueba T de Student para muestras relacionadas. Es el modelo paramétrico para determinar si las medias de dos grupos que provienen de la misma población (por ejemplo, en un modelo pre-post con un único grupo) difieren entre sí. Como en el caso anterior, también se requiere que la distribución sea Normal (sin embargo, la prueba para muestras relacionadas tolera bastante bien la ausencia de Normalidad, por ello sólo se requiere que la variable seaaproximadamente

Normal para los dos grupos).

La interpretación es similar al modelo para muestras independientes.

Aparte, están las pruebas no paramétricas: Prueba U de Mann Whitney para muestras independientes. Es el equivalente a la prueba T de Student para muestras independientes cuando no se cumple el requisito de Normalidad. Prueba de Welch para muestras independientes. Es el equivalente a la prueba T de Student para muestras independientes cuando no se cumple el requisito de igualdad de varianzas.

Prueba de Wilcoxon para muestras relacionadas. Es el equivalente a la prueba T de Student para muestras relacionadas cuando no se cumple el requisito de Normalidad.

Todas estas técnicas, además de indicar si existen diferencias estadísticamente significativas entre las medias de los dos grupos (significación, p...


Similar Free PDFs