Tema 7 - Apuntes t 7 PDF

Title Tema 7 - Apuntes t 7
Course Investigación de Mercados
Institution Universidad Carlos III de Madrid
Pages 12
File Size 634.1 KB
File Type PDF
Total Downloads 35
Total Views 168

Summary

Investigacn mercados...


Description

7.1 ANALISIS FACTORIAL 1. Introducción 2. Análisis factorial 3. Estadísticos asociados con el análisis factorial 4. Ejemplo de análisis factorial 



. Análisis de componentes principales Análisis de los factores comunes

En las técnicas de reducción de dimensiones, las variables no se clasifican como independientes y dependientes

1. Introducción

Se examina las relaciones de interdependencia entre todas las variables Ejemplo: ¿Cómo evalúan a los bancos los consumidores? Identificar las dimensiones de la imagen de marca a través de atributos con una escala de 5 puntos Tasas de interés Reputación en la comunidad Amabilidad del personal Acceso a financiación …etc

Servicios tradicionales Comisiones Tasas de interes Operaciones

Conveniencia

competencia

visibilidad

Cercanía a sucursales

Recomendaciones amigos …

….





Rapidez en los servicios Horarios de los servicios

….

Análisis factorial es un nombre general que denota una clase de procedimientos que se utilizan sobre todo para reducir y resumir los datos.

El análisis factorial es una técnica de interdependencia en la cual se examina un conjunto completo de relaciones interdependientes, sin establecer distinciones entre las variables dependientes e independientes.

Para identificar las dimensiones subyacentes, o factores, que explican las correlaciones entre un conjunto de variables. o Para identificar un conjunto más reducido de variables que sobresalen en un conjunto mayor para utilizar luego en el análisis multivariado o Para identificar un conjunto nuevo y más reducido de variables no correlacionadas que reemplacen al conjunto original de variables correlacionadas en el análisis multivariado posterior (regresión o análisis discriminante). o

2. Análisis factorial

En matemáticas, cada variable se expresa como una combinación lineal de los factores subyacentes. La covarianza entre las variables se describe en términos de un pequeño número de factores comunes y un factor único para cada variable. Si las variables son estandarizadas, el modelo factorial se representa de la siguiente manera: ( ESCRIBIR MODELO)

Los factores únicos no se correlacionan entre sí ni con los factores comunes. Los factores comunes pueden expresarse como combinaciones lineales de las variables observadas.

3. Estadísticos asociados con el análisis factorial

. 1.Prueba de esfericidad de Bartlett. La prueba de esfericidad de Bartlett es una prueba estadística utilizada para examinar la hipótesis de que las variables no están correlacionadas en la población. En otras palabras, la matriz de correlación de la población es una matriz de identidad; cada variable muestra una correlación perfecta consigo misma (r = 1) pero no se correlaciona con las demás variables (r = 0).

2. Matriz de correlación. Una matriz de correlación es una matriz triangular inferior que muestra las correlaciones simples r, entre todos los pares posibles de variables incluidas en el análisis. Por lo regular, se omiten los elementos de la diagonal que son todos iguales a 1. 3. Contribución común (o comunalidad). Es la cantidad de varianza que una variable comparte con todas las otras variables consideradas. También es la proporción de la varianza explicada por los factores comunes. 4. Valor propio. El valor propio representa la varianza total explicada por cada factor. 5. Cargas de los factores. Las cargas de los factores son correlaciones simples entre las variables y los factores 6.Puntuaciones de los factores. Son calificaciones compuestas que se calculan para cada encuestado de los factores derivados. 7. Medida de lo apropiado del muestreo de Kaiser-Meyer-Olkin (KMO). Es un índice utilizado para examinar si el análisis factorial es el apropiado. Los valores altos (entre 0,5 y 1) indican que el análisis factorial es apropiado. Valores inferiores a 0,5 implican que el análisis factorial quizá no sea adecuado. 8. Residuales. Son las diferencias entre las correlaciones observadas (tal como se presentan en la matriz de correlaciones de entrada) y las correlaciones reproducidas (tal como se calcularon a partir de la matriz factorial). 9. Gráfica de sedimentación. Es una gráfica de los valores propios contra el número de factores en orden de extracción. 4. Análisis factorial - Pasos

Ejemplo análisis factorial

1. Planteamiento del problema 1. . Deben identificarse los objetivos del análisis factorial. 2. Deben especificarse las variables que se incluirán de acuerdo con las investigaciones previas, la teoría y el juicio del investigador. Es importante que las variables se midan de forma apropiada en una escala de intervalo o de razón. 3. Se debe usar un tamaño apropiado de la muestra. Como guía general, el número de observaciones (tamaño de la muestra) debería ser al menos cuatro o cinco veces mayor que el número de variables. 4. En muchos casos de investigación de mercados, el tamaño de la muestra es pequeño y esta razón es mucho menor. En situaciones así, se requiere que los resultados se interpreten con cautela.

2. Matriz de correlaciones El proceso analítico se basa en una matriz de correlaciones entre las variables. La prueba de esfericidad de Bartlett permite probar la hipótesis nula de que las variables no están correlacionadas en la población; en otras palabras, la matriz de correlación de la población es una matriz de identidad. Si esta hipótesis no puede ser rechazada, entonces debe cuestionarse la pertinencia del análisis factorial.

Otro estadístico útil es la medición de KaiserMeyer-Olkin (KMO) sobre lo adecuado del muestreo. Los valores pequeños del estadístico KMO indican que las correlaciones entre pares de variables no pueden explicarse por otras variables y que tal vez el análisis factorial no sea adecuado.

La prueba de esfericidad de Bartlett rechaza la hipótesis nula de que la matriz de correlación de la población es una matriz de identidad.

La chi cuadrada aproximada es de 111,314 con 15 grados de libertad , lo cual es significativo a un nivel de 0,05. El valor del estadístico de KMO (0,660) también es alto (>0,5). Por ende, puede considerarse que el análisis factorial es una técnica apropiada.

3. Determinar el método de análisis factorial En el análisis de los componentes principales (ACP) se considera la varianza total de los datos. Se recomienda el análisis de los componentes principales cuando lo que interesa es determinar el número mínimo de factores que explicarán la máxima varianza de los datos para usarlos en análisis multivariados principales. Los factores se conocen como componentes principales.

En el análisis de los factores comunes (AFC), los factores se calculan a partir únicamente de la varianza común. Las contribuciones comunes se introducen en la diagonal de la matriz de correlación. Este procedimiento es adecuado cuando lo que interesa sobre todo es identificar las dimensiones subyacentes y la varianza común. Este procedimiento se conoce también como factorización del eje principal. ACP puede verse como un primer paso en AFC en el que se obtiene una solución inicial donde los factores son los componentes. Esos factores iniciales (los componentes) se rotan para darles un significado más claro

ANALISIS DE COMPONENTES PRINCIPALES ACP comunalidades son la proporción explicada por los factores

Las de la varianza comunes.

Vemos que todas las variables explicadas por la estructura

van a ser bien factorial.

La variable que posee una es V2– dientes brillantes – que 72,3%.

menor extracción se explica en un

4. Determinar el número de factores ▪ Determinación a priori. A veces, el investigador sabe, gracias a la información previa, cuántos factores debe esperar y, por eso, puede especificar de antemano el número de factores que deben extraerse. ▪ Determinación basada en valores propios. En este método sólo se conservan los factores cuyo valor propio es mayor que “1”. Un valor propio representa la cantidad de varianza asociada con el factor, por lo cual sólo se incluyen los factores con varianza mayor que “1”. Los factores con varianza menor que “1” no son mejores que una sola variable porque, debido a la estandarización, cada variable tiene una varianza de “1”.

La gráfica indica una separación notable entre la pendiente pronunciada de los factores con valores propios grandes y un desvanecimiento gradual asociado con el resto de los factores, lo cual se conoce como sedimentación.

En la gráfica de sedimentación asociada con este análisis muestra una clara separación en tres factores.

▪Determinación basada en la confiabilidad de división en mitades . La muestra se divide en mitades y cada mitad se somete al análisis factorial. Sólo se conservan los factores con una alta correspondencia con las cargas de los factores en las dos submuestras. ▪ Determinación basada en pruebas de significancia. Es posible determinar la significancia estadística de los valores propios separados y conservar sólo aquellos factores estadísticamente significativos. Un inconveniente es que es probable que en las muestras grandes (mayores de 200), muchos factores sean estadísticamente significativos, aunque desde un punto de vista práctico, muchos de ellos sólo explican una pequeña proporción de la varianza total.

5. Rotar factores Aunque la matriz factorial inicial o no rotada indica la relación entre los factores y las variables individuales, es raro que dé como resultado factores que puedan interpretarse, porque los factores están correlacionados con muchas variables. Por lo tanto, la rotación transforma la matriz factorial en una matriz más sencilla de interpretar.

Al rotar los factores, nos gustaría que cada factor tuviera cargas o coeficientes significativos (diferentes de cero) sólo con algunas variables. Asimismo, nos gustaría que cada variable presentara cargas significativas (diferentes de cero) con sólo unos pocos factores, de ser posible, sólo con uno.

La rotación se conoce como rotación ortogonal si los ejes se mantienen en ángulos rectos. El procedimiento de uso más común para la rotación es el procedimiento varimax. Éste es un método ortogonal de rotación que minimiza el número de variables con cargas altas de un factor, aumentando así la posibilidad de interpretar los factores. La rotación ortogonal tiene como resultado factores no correlacionados. La rotación se llama rotación oblicua cuando los ejes no se mantienen en ángulos rectos y los factores están correlacionados. A veces, permitir las correlaciones entre los factores puede simplificar la matriz de patrones factoriales. La rotación oblicua debería utilizarse cuando es probable que los factores en la población mantengan una fuerte correlación.

Cargas altas >= 3

5. Interpretar los factores Un factor puede interpretarse después en términos de las variables con cargas altas en él

Otro auxiliar útil en la interpretación es graficar las variables, utilizando las cargas factoriales como coordenadas. Las variables en el extremo de un eje son las que tienen cargas altas sólo en ese factor, y por ende lo describen.

7.1. Calcular la puntuación de los factores Las puntuaciones de los factores para el factor i-ésimo se calculan de la siguiente manera:

7.2. Elegir las variables sustitutas Al examinar la matriz factorial, puede elegirse para cada factor la variable con la carga más alta en ese factor. Luego, esa variable podría utilizarse como una variable sustituta del factor asociado Sin embargo, la elección no es tan fácil si dos o más variables muestran cargas altas de igual magnitud. En ese caso, la elección entre esas variables debería basarse en consideraciones teóricas y de medición.

Las correlaciones entre las variables pueden deducirse o reproducirse de las correlaciones calculadas entre las variables y los factores. Las diferencias entre las correlaciones observadas (como se presentan en la entrada de la matriz de correlación) y las correlaciones reproducidas (según el cálculo a partir de la matriz factorial) pueden examinarse para determinar el ajuste del modelo. Estas diferencias se llaman residuales

El triángulo inferior a la izquierda contiene la matriz de correlación reproducida; la diagonal, las contribuciones comunes; el triángulo superior a la derecha, los residuales entre las correlaciones observadas y las correlaciones reproducidas.

4.2 ANALISIS DE LOS FACTORES COMUNES...


Similar Free PDFs