PS19 Análisis Factorial v2 revisada y con SPSS PDF

Title PS19 Análisis Factorial v2 revisada y con SPSS
Course Psicometría
Institution Universidad de Deusto
Pages 12
File Size 882.4 KB
File Type PDF
Total Downloads 68
Total Views 133

Summary

psicometría ...


Description

UD – Dra. Goikoetxea

1

Universidad de Deusto Facultad de Psicología y Educación Psicología 3º curso Psicometría. Curso 2019-2020 Análisis factorial exploratorio Para una introducción clara de la historia, los fundamentos teóricos y la utilidad del análisis factorial véase Yela (1996). Para un mayor conocimiento de la técnica del análisis factorial véase otras referencias (Fields, 2010; Sesé, 2009). Aquí se resumen los pasos para realizar el análisis factorial a través del método de los componentes principales. Pasos para realizar el análisis de componentes principales 1. Cálculo y examen de la matriz de correlaciones entre todas las variables observables (matriz R). 2. Extracción de la matriz factorial o extracción de los factores necesarios para representar los datos: obtención de eigenvalores, saturaciones factoriales y comunalidades. 3. Determinación del número de factores de la solución. 4. Rotación de la estructura factorial con objeto de facilitar su interpretación. 5. Interpretación psicológica de la estructura factorial.

UD – Dra. Goikoetxea

2

1. Matriz de correlaciones El primer paso para el análisis consiste en calcular la matriz de correlaciones entre todas las variables observables consideradas.

X1 X2 X3 X4 Xn

X1 1 r21 r22 r23 rn1

X2 r12 1 r32 r42 rn2

X3 r13 r23 1 r43 rn3

X4 r14 r24 r34 1 rn4

Xn r1n r2n r3n r4n 1

A continuación hay que examinar esta matriz para comprobar si sus características son adecuadas para realizar un análisis de componentes principales. Hay dos cosas que decir respecto a esta matriz. Una, las variables tienen que estar intercorrelacionadas, esto es para poder reducir la dimensionalidad es necesario la existencia de altas correlaciones entre algunos grupos de variables observables (sólo así podemos inferir factores o variables latentes). Pero no extraordinariamente intercorrelacionadas para dar lugar a la multicolinealidad y singularidad). Existen varios métodos para comprobar el grado de asociación entre las variables. Algunos son: 1. El determinante de la matriz de correlaciones: Un determinante muy bajo indicará altas intercorrelaciones entre las variables (adecuación), pero no debe ser cero (matriz singular), pues esto indicaría que algunas de las variables son linealmente dependientes y el proceso de cálculo no podría realizarse. 2. Test de esfericidad de Bartlett (1950): Evalúa la hipótesis nula de que la matriz de correlaciones es una matriz identidad (I), es decir, evalúa la ausencia de correlación significativa entre las variables. Esto significa que la nube de puntos se ajustará a una esfera perfecta, expresando así la hipótesis nula. La prueba de significación propuesta por Bartlett es un test χ 2: x2 = - (n – 1 – (2v +5)/6) ln |R| gl = v (v-1)/2) donde n es el tamaño de la muestra, ν es el número de variables observables, ln es el logaritmo neperiano, y |R| el determinante de la matriz de correlaciones. Si no se rechaza la hipótesis nula, no tiene sentido llevar a cabo el análisis. 3. Índice KMO de Kaiser-Meyer-Olkin: Este índice compara la magnitud de los coeficientes de correlación observados con relación al tamaño de los coeficientes de correlación parcial. La correlación parcial entre dos variables se calcula cuando los efectos de otras variables han sido eliminados. Cuando KMO se acerca a 1, el sumatorio de los coeficientes parciales al cuadrado entre todos los pares de variables es muy pequeño, con respecto al sumatorio de los coeficientes de correlación al cuadrado. Valores de KMO inferiores a 0.50 no se consideran adecuados. Kaiser presenta la siguiente tabla para su interpretación: 1 ≥ KMO ≥ 0,9 Muy bueno 0,9 > KMO ≥ 0,8 Meritorio

UD – Dra. Goikoetxea

3

0,8 > KMO ≥ 0,7 Mediano 0,7 > KMO ≥ 0,6 Mediocre 0,6 > KMO ≥ 0,5 Bajo KMO < 0,5 Inaceptable 2. Matriz factorial

A partir de una matriz de correlaciones o variancias/covariancias, el análisis de componentes principales extrae otra matriz que reproduce la primera de forma más sencilla por un proceso de diagonalización. Esta nueva matriz se denomina Matriz Factorial y aparece de la siguiente forma: Variables V1 V2 V3 V4 V5 V6 V7 V8

Factor 1 A11 0,579 A21 0,373 A31 0,550 A41 0,749 A51 0,733 A61 0,711 A71 0,419 A81 0,472 λ1

Factor 2 A12 A22 A32 A42 A52 A62 A72 A82 λ2

Factor 3 A13 A23 A33 A43 A53 A63 A73 A83 λ3

h2Comunalidad h12 h22 h32 h42 h52 h62 h72 h82

Los elementos Aij se denominan cargas, pesos o saturaciones factoriales (loadings), y pueden interpretarse como correlaciones entre cada uno de los factores y las variables observables. Indican el peso (o saturación) de cada variable en cada factor. Lo ideal supone que cada variable "cargue" alto en un factor y bajo en el resto. El cuadrado de un peso o saturación factorial indica la proporción de la variancia explicada por un factor en una variable observable. La suma de los cuadrados de los pesos de cualquier columna de la matriz factorial forma la Raíz latente o Eigenvalue (λ), e indica la cantidad total de varianza que explica ese factor para las variables observables consideradas en el análisis:

λk = Σ a2ik Las cargas pueden tomar como máximo el valor 1, por lo que el valor máximo para Σλk es el número total de variables observables: Σλk= p (nº variables observables) En un análisis de componentes principales, siempre se obtienen tantos eigenvalues o valores propios (factores) como variables observables entran a formar parte del análisis. Por esta razón y para reducir la dimensionalidad, en el análisis factorial hay que establecer luego un criterio para la retención de factores menor que el de variables observables. Si dividimos cada valor propio λ entre el número de variables observables y lo multiplicamos por 100, obtenemos el porcentaje de variancia explicada por el factor con respecto a la variancia total: % Var explicada λk = (λk/ p) · 100

UD – Dra. Goikoetxea

4

La comunalidad (hi2) es la proporción de variancia explicada por los factores en una variable observable, y se calcula mediante el sumatorio de las saturaciones factoriales al cuadrado para cada una de las filas de la matriz factorial: h2 i = Σ

a2ik

3. Determinación del número de factores de la solución. La matriz factorial inicial obtenida mediante análisis de componentes principales presenta tantos factores como variables observables. Generalmente, hay un conjunto más reducido de ellos, los primeros, que son los que explican la mayor parte de la variabilidad total (λ más altos). Mientras que el resto de los factores presentan valores muy bajos de variancia explicada. Existen algunas reglas orientativas para determinar el número de factores a conservar. Algunas de ellas son: 1. Criterio de Guttman-Kaiser (1960) : retener solamente aquellos factores cuyos valores propios (eigenvalues) son mayores que la unidad (eigenvalor > 1). Este criterio es el que suelen emplear por defecto los programas estadísticos tales como el SPSS. Análisis factorial Método factorial inicial: Principal Components Prior Communality Estimates: ONE Eigenvalues of the Correlation Matrix: Total = 12 Average = 1

1 2 3 4 5 6 7 8 9 10 11 12

Eigenvalue Difference Proportion Cumulative 8.28814048 7.24043663 0.6907 0.6907 1.04770385 0.35054919 0.0873 0.7780 0.69715466 0.31370076 0.0581 0.8361 0.38345390 0.06882399 0.0320 0.8680 0.31462990 0.02470323 0.0262 0.8943 0.28992667 0.04134964 0.0242 0.9184 0.24857703 0.01229147 0.0207 0.9391 0.23628556 0.03297872 0.0197 0.9588 0.20330684 0.06144279 0.0169 0.9758 0.14186405 0.04657411 0.0118 0.9876 0.09528994 0.04162283 0.0079 0.9955 0.05366711 0.0045 1.0000

2 factors will be retained by the NFACTOR criterion.

2. Scree-test de Cattell (1966): Consiste en representar en un sistema de ejes los valores que toman los eigenvalues (ordenadas) y el número de factor (abscisas). Sobre la gráfica resultante se traza una línea (decreciente) que une todos los puntos, donde el punto de inflexión marca el límite de los factores a retener.

UD – Dra. Goikoetxea

5

Gráfico de sedimentación

5

Autovalor

4

3

2

1

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

Número de componente

3. Test de significación de los residuos de Bartlett (1950): Es una prueba de contraste para la significación de la matriz residual (no explicada) cuando se extraen k componentes de la matriz R. 4. Retener los factores que en total expliquen un 70 a 80% de la varianza. En suma la matriz factorial nos indica la relación entre las variables observables y los factores o variables latentes. 4. Rotación de la estructura factorial. Tras la obtención de la matriz factorial a veces es difícil interpretar y denominar los factores en base a los pesos o cargas factoriales. Véase el siguiente ejemplo. Variables V1 V2 V3 V4 V5

Factor 1 0,4 0,7 0,3 0,3 -0,7

Factor 2 0,5 0,7 0,4 -0,6 -0,4

En la matriz factorial de arriba no queda claro en qué factor satura cada variable de forma simple. Una solución para facilitar la interpretación es hacer rotaciones factoriales. La rotación factorial altera el patrón de cargas factoriales y así ayuda a interpretar los resultados. Lo que hace es una solución más sencilla e interpretable. 

En síntesis, consisten en hacer girar los ejes de coordenadas, que representan a los factores, hasta conseguir que se aproxime al máximo a las variables en que están saturados.



La rotación de factores transforma la matriz factorial inicial en otra denominada matriz factorial rotada, que es una combinación lineal de la primera y explica la

UD – Dra. Goikoetxea

6

misma cantidad de variancia inicial (mantiene casi idénticas las comunalidades para cada variable observada): Variables V1 V2 V3 V4 V5

Factor 1 0,8 0,7 0,9 0,3 0,1

Factor 2 -0,05 -0,2 -0,04 0,6 0,8

Thurstone (1935) enuncia el principio de estructura simple , al que debe aspirar cualquier procedimiento de rotación: 1. Cada factor debe tener unos pocos pesos altos y los otros próximos a cero. 2. Cada variable no debe estar saturada más que en un factor. 3. No deben existir factores con la misma distribución, es decir, los factores distintos deben presentar distribuciones de cargas bajas y altas distintas. Estos tres principios en la práctica no suelen lograrse, lo que se trata es de alcanzar una solución lo más aproximada posible a ello. Existen varios métodos de rotación que podemos agrupar en dos grandes tipos: ortogonales y oblicuos. Una rotación será ortogonal cuando la correlación entre los factores sea nula (ángulo de 90 grados entre factores) y una rotación será oblicua cuando la correlación entre factores no sea nula. De entre las rotaciones ortogonales la más utilizada es la Varimax, y entre las oblicuas es la Oblimin (ambas desarrolladas por SPSS). SPSS ofrece cinco rotaciones: varimax, quartimax, equamax, oblimin y promax. Las tres primeras opciones son rotaciones ortogonales y las dos últimas son oblicuas. 5. Interpretación de los factores. En la fase de interpretación juega un papel preponderante la teoría y el conocimiento sustantivo. A efectos prácticos se sugieren dos pasos en el proceso de interpretación: 1. Estudiar la composición de las saturaciones factoriales significativas de cada factor. 2. Intentar dar nombre o "etiquetar" los factores; nombre o etiqueta que se debe dar de acuerdo con la estructura de sus saturaciones, es decir, en función de su contenido. Dos cuestiones que pueden ayudar a la interpretación son: a. Ordenar la matriz rotada de forma que las variables con saturaciones altas en un factor aparezcan juntas (ordenar por tamaño en SPSS). b. La eliminación de las cargas factoriales bajas, generalmente aquellas que están por debajo de 0.30 (suprimir saturaciones menores que… en SPSS). Llamaremos variable compleja a aquella que satura altamente en más de un factor y que no debe ser utilizada para dar nombre a los factores (fenómeno de solapamiento).

UD – Dra. Goikoetxea

7

Factores monopolares son aquellos en los que todas las saturaciones tienen el mismo signo (negativo o positivo). Factores bipolares son aquellos en los que unas variables saturan positivamente (signo positivo) y otras poseen saturaciones negativas (signo negativo).

UD – Dra. Goikoetxea

Desarrollo del análisis empleando el programa SPSS v 20. 1. Primero elegir lo que aparece a continuación en el menú SPSS: i Reducción de dimensiones ii Factor

2. Pasar las variables que entrarán al análisis a la ventana derecha.

8

UD – Dra. Goikoetxea 3. En “Descriptivos” elegir coeficientes, determinante, KMO y prueba de Bartlett.

4. En extracción elegir el método: componentes principales u otro.

9

UD – Dra. Goikoetxea

10

5. En Extracción elegir Gráfico de Sedimentación.

6. En Extracción decidir si extrae factores en base al Autovalor o a un Número de factores introducido por nosotros. Dejaremos el criterio del autovalor como aparece en el recuadro anterior, el paso 5. 7. En Rotación elegimos el tipo de rotación deseada. En este caso vemos elegida Varimax.

8. No usamos la opción Puntuaciones. 9. En Opciones elegimos que ordene los factores por tamaño, pero no elegimos que elimine ningún peso, por muy pequeño que sea.

UD – Dra. Goikoetxea

10. A continuación las tablas de los resultados.

11

UD – Dra. Goikoetxea

12...


Similar Free PDFs