Multicolinealidad PDF

Title Multicolinealidad
Course Econometría I
Institution Universidad Autónoma Chapingo
Pages 10
File Size 438.5 KB
File Type PDF
Total Downloads 39
Total Views 121

Summary

Resumen multicolinealidad...


Description

1. Definir que es la multicolinealidad. ¿Existe alguna diferencia entre colinealidad y multicolinealidad? Explique. El término multicolinealidad se atribuye a Ragnar Frisch. Originalmente, designaba una relación lineal “perfecta” o exacta entre algunas o todas las variables explicativas de un modelo de regresión. Para la regresión con k variables que incluye las variables explicativas X1, X2, . . . , Xk (donde X1=1 para todas las observaciones de forma que den cabida al término del intercepto), se dice que existe una relación lineal exacta si se satisface la siguiente condición:

λ1X1 + λ2X2 +···+ λk Xk=0 donde λ1, λ2,. . . , λk, son constantes tales que no todas son simultáneamente iguales a cero.

Si existe diferencia, la multicolinealidad se refiere a la existencia de más de una relación lineal exacta, y colinealidad, a la existencia de una sola relación lineal, aunque esta distinción pocas veces se mantiene en la práctica, y se hace entonces referencia a multicolinealidad en ambos casos.

2. ¿Por qué se dice que la multicolinealidad es esencialmente un fenómeno de tipo muestral? Lo es en el sentido en que, aunque las variables X no estén linealmente relacionadas en la población, pueden estarlo en la muestra particular disponible: cuando se postula la función de regresión teórica o poblacional (FRP), se considera que todas las variables X incluidas del modelo ejercen una influencia separada o independiente sobre la variable dependiente Y. Pero puede suceder que en cualquier muestra dada con que se pruebe la FRP, alguna o todas las variables X sean tan colineales que no sea posible aislar su influencia individual sobre Y. Es decir, la muestra falla aunque la teoría establezca que todas las X son importantes. En resume

3. ¿En qué consiste la multicolinealidad extrema o perfecta? Explique y ejemplifique.. Si la multicolinealidad es perfecta, los coeficientes de regresión de las variables X son indeterminados, y sus errores estándar, infinitos.

Esto se demuestra fácilmente en términos del modelo de regresión con tres variables. Con la forma de desviación, en la cual todas las variables se expresan como desviaciones de sus medias muestrales, se escribe el modelo de regresión con tres variables como:

Se obtiene que:

Suponiendo que X3i = λX2i, donde λ es una constante diferente de cero, si se sustituye en la fórmula:

es una expresión indeterminada. βˆ2: da la tasa de cambio en el valor promedio de Y a medida que X2 cambia en una unidad, manteniendo X3 constante. Pero si X3 y X2 son perfectamente colineales, no hay forma de que X3 se mantenga constante: a medida que X2 cambia, también lo hace X3 por el factor λ. Esto significa, entonces, que no hay forma de desenredar las influencias separadas de X2 y X3 de la muestra dada: para fines prácticos, X2 y X3 son indistinguibles.

4. ¿En qué consiste la ejemplifique..

multicolinealidad

casi perfecta?

Explique y

Si la multicolinealidad es menos que perfecta), los coeficientes de regresión, aunque sean determinados, poseen grandes errores estándar (en relación con los coeficientes mismos), lo cual significa que los coeficientes no pueden ser estimados con gran precisión o exactitud. La situación de multicolinealidad perfecta es un extremo patológico. Por lo general no existe una relación lineal exacta entre las variables X, en especial en información económica relacionada con series de tiempo. Por tanto, al modelo de tres variables en forma de desviación, en lugar de multicolinealidad exacta podemos tener

onde λ≠0 y donde vi es un término de error estocástico tal que ∑x2ivi=0.

Un ejemplo son los diagramas de Ballentine que representan casos de colinealidad imperfecta. En este caso, sería posible la estimación de los coeficientes de regresión β2 y β3.

donde se aprovecha que ∑x2ivi=0. Se deriva una expresión similar para βˆ3. No hay razón a priori para pensar que no pueda estimarse. Desde luego, si vi es lo bastante pequeño, es decir, muy cercano a cero, indicará colinealidad casi perfecta, y regresaremos un caso indeterminado.

5. ¿Cuáles son las consecuencias teóricas de la multicolinealidad extrema y no extrema? •

En el caso de casi multicolinealidad los estimadores de MCO son insesgados. Pero el insesgamiento es una propiedad multimuestral o de muestreo repetido. Esto significa que, si mantenemos fijos los valores de X, si obtenemos muestras repetidas y calculamos los estimadores de MCO para cada una de esas muestras, el promedio de los valores muestrales se





aproximará a los verdaderos valores poblacionales de los estimadores a medida que aumenta el número de las muestras. Pero esto nada dice sobre las propiedades de los estimadores en una muestra dada. La colinealidad no destruye la propiedad de varianza mínima: en la clase de los estimadores lineales insesgados, los estimadores de MCO tienen varianza mínima; es decir, son eficientes. Pero esto no significa que la varianza de un estimador de MCO necesariamente sea pequeña (en relación con el valor del estimador) en cualquier muestra dada. La multicolinealidad es en esencia un fenómeno (de regresión) muestral en el sentido en que, aunque las variables X no estén linealmente relacionadas en la población, pueden estarlo en la muestra particular disponible: cuando se postula la función de regresión teórica o poblacional (FRP), se considera que todas las variables X incluidas del modelo ejercen una influencia separada o independiente sobre la variable dependiente Y. Pero puede suceder que en cualquier muestra dada con que se pruebe la FRP, alguna o todas las variables X sean tan colineales que no sea posible aislar su influencia individual sobre Y. Es decir, la muestra falla aunque la teoría establezca que todas las X son importantes. En resumen, la muestra puede no ser lo bastante “rica” para acomodar todas las variables X en el análisis

6. Dentro de los métodos de detección del problema de multicolinealidad formales e informales existen los siguientes, en que consiste c/u de ellos, explique.

a)

Una R2 elevada pero pocas razones de “t” significativas

Si R2 es alta, es decir, está por encima de 0.8, la prueba F, en la mayoría de los casos, rechazará la hipótesis de que los coeficientes parciales de pendiente son simultáneamente iguales a cero, pero las pruebas t individuales mostrarán que ningún coeficiente parcial de pendiente, o muy pocos, son estadísticamente diferentes de cero. Aunque este diagnóstico es razonable, su desventaja es que “es demasiado fuerte, en el sentido de que la multicolinealidad se considera dañina únicamente cuando no se puede separar la totalidad de las influencias de las variables explicativas sobre Y.

b)

Altas correlaciones entre parejas de regresoras

Otra regla práctica recomendable consiste en observar el coeficiente de correlación de orden cero o entre dos regresoras. Si éste es alto, digamos, superior a 0.8, la

multicolinealidad es un problema grave. La desventaja con este criterio es que, aunque las altas correlaciones de orden cero pueden sugerir la presencia de colinealidad, no es necesario que dichas correlaciones sean altas para tener colinealidad en un determinado caso específico. Las correlaciones de orden cero elevadas son una condición suficiente pero no necesaria para la existencia de multicolinealidad, debido a que puede existir a pesar de que las correlaciones de orden cero o correlaciones simples sean comparativamente bajas.

c)

Examen de las correlaciones parciales

Debido al problema de altas correlaciones entre parejas de regresoras, que se basa en correlaciones de orden cero, Farrar y Glauber sugieren que deben observarse, en lugar de ellas, los coeficientes de correlación parcial. De esta forma, en la regresión de Y sobre X2, X3 y X4, si se encuentra que R 21.234 es muy elevada pero r21 2.3 4, r21 3.2 4 y r21 4.2 3 son comparativamente bajas, esto puede sugerir que las variables X2, X3 y X4 están muy intercorrelacionadas y que por lo menos una de estas variables es superflua. Si bien puede ser útil un estudio de correlaciones parciales, nada garantiza que proporcionen una guía infalible sobre multicolinealidad, pues puede suceder que tanto R2 como todas las correlaciones parciales sean lo bastante altas La prueba de correlación parcial de Farrar-Glauber es ineficaz en el sentido de que una determinada correlación parcial puede ser compatible con diferentes patrones de multicolinealidad.

d)

Uso de regresiones Auxiliares

Como la multicolinealidad surge porque una o más de las regresoras son combinaciones lineales exactas o aproximadas de las demás regresoras, una forma de determinar cuál variable X está relacionada con las demás variables X es efectuar la regresión de cada Xi sobre las variables X restantes y calcular la R 2 correspondiente, que se designa R 2i ; cada una de estas regresiones se denomina regresión auxiliar, auxiliar a la regresión principal de Y sobre las X. Conforme a la relación entre F y R 2 la variable sigue la distribución F con k − 2 y n − k + 1 gl.

En la ecuación n representa el tamaño de la muestra, k representa el número de variables explicativas incluyendo el intercepto y R 2xi ·x2 x3···xk es el coeficiente de determinación en la regresión de la variable Xi sobre las variables X restantes. Si la F calculada excede a la Fi crítica en el nivel de significancia seleccionado, se dice que la Xi particular es colineal con las demás X; si no excede a la Fi crítica, se dice que ésta no es colineal con las demás X, en cuyo caso se puede mantener la variable en el modelo. Si Fi es estadísticamente significativa, aún hay que decidir si la Xi en consideración debe eliminarse del modelo. Este método no carece de desventajas, pues en lugar de probar formalmente todos los valores R2 auxiliares, se puede adoptar la regla práctica de Klein, que sugiere que la multicolinealidad puede ser un problema complicado solamente si la R 2 obtenida de una regresión auxiliar es mayor que la R2 global, es decir, si se obtiene de la regresión de Y sobre todas las regresoras.

7. Dentro de las Medidas Correctivas ante el problema de multicolinealidad (explique 5 de estos procedimientos que se encuentran en las paginas 342 – 347 del texto de Gujarati de Econometría 5ta. Edición que se encuentra en la bibliografía del curso).

Se pueden intentar las siguientes reglas prácticas para abordar el problema de la multicolinealidad; el éxito depende de la gravedad de la multicolinealidad.

1. Información a priori. Suponga que consideramos el modelo:

donde Y=consumo, X2=ingreso y X3=riqueza. Las variables ingreso y riqueza tienden a ser muy colineales. Pero suponga que, a priori, creemos que β 3=0.10β2; es decir, la tasa de cambio del consumo respecto de la riqueza es una décima parte de la correspondiente respecto del ingreso. Podemos entonces efectuar la siguiente regresión:

donde Xi=X2i + 0.1X3i. Una vez obtenido βˆ2 podemos estimar βˆ3 a partir de la relación postulada entre β2 y β 3.

La información a priori puede provenir de un trabajo empírico anterior, en donde el problema de colinealidad resultó ser menos grave o de la teoría relevante que soporta el campo de estudio.

2. Combinación de información de corte transversal y de series de tiempo. Una variante de la técnica de información externa o a priori es la combinación de datos de corte transversal y de series de tiempo, conocida como mezcla de datos. Suponga que deseamos estudiar la demanda de automóviles en Estados Unidos y que tenemos información de series de tiempo sobre el número de automóviles vendidos, su precio promedio y el ingreso del consumidor. Además, suponga que:

donde Y=número de automóviles vendidos, P=precio promedio, I=ingreso y t=tiempo. El objetivo es estimar la elasticidad precio β 2 y la elasticidad ingreso β 3. En la información de series de tiempo, las variables precio e ingreso tienden a ser muy colineales. Por consiguiente, si deseamos efectuar la anterior regresión, debemos enfrentar el problema usual de multicolinealidad. Si hay información de corte transversal, puede obtenerse una estimación relativamente confiable de la elasticidad ingreso β 3, pues, con tal información, que está en un punto en el tiempo, los precios no varían mucho. Sea βˆ3 la elasticidad ingreso estimada a partir de los datos de corte transversal. Con esta estimación, la anterior regresión de series de tiempo se escribe como:

donde Y∗=ln Y − βˆ3 ln I, es decir, Y∗ representa ese valor de Y después de eliminarle el efecto del ingreso. Ahora se puede obtener una estimación de la elasticidad precio β2 de la regresión anterior. Aunque es una técnica atractiva, la mezcla de datos de series de tiempo y de corte transversal de esta forma puede crear problemas de interpretación porque se supone implícitamente que la elasticidad ingreso estimada a partir de datos de corte transversal es igual a la que se habría obtenido a partir de un análisis puro de series de tiempo.

3. Eliminación de una(s) variable(s) y el sesgo de especificación. Al enfrentar el problema de multicolinealidad grave, una de las soluciones “más simples” consiste en omitir del modelo una de las variables colineales.

Sin embargo, al eliminar una variable del modelo se puede incurrir en un sesgo de especificación o error de especificación. El sesgo de especificación surge de la especificación incorrecta del modelo utilizado en el análisis. Así, en el ejemplo de consumo-ingreso-riqueza, la teoría económica afirma que tanto el ingreso como la riqueza deben incluirse en el modelo que explica el gasto de consumo, al eliminar la variable riqueza se incurriría en un sesgo de especificación. Si el modelo verdadero es:

pero se ajusta de manera errónea el modelo:

se demuestra que:

donde b32=coeficiente de la pendiente en la regresión de X3 sobre X2. Por consiguiente, b12 será una estimación sesgada de β 2 en la medida en que b32 sea diferente de cero. Claro está que si b32 fuera cero, para empezar no habría problema de multicolinealidad. También es claro que si b32 y β3 son positivas (o ambas negativas), E(b12) será mayor que β 2; por tanto, en promedio, b12 sobreestimará a β2, para ocasionar un sesgo positivo. De la misma forma, si el producto b32β3 es negativo, en promedio, b12 subestimará a β2, para ocasionar un sesgo negativo. Eliminar una variable del modelo para resolver el problema de la multicolinealidad puede producir un sesgo de especificación. Por tanto, el remedio suele ser peor que la enfermedad en algunas situaciones porque, mientras que la multicolinealidad puede obstaculizar la estimación precisa de los parámetros del modelo, la omisión de una variable generaría graves equivocaciones respecto de los verdaderos valores de los parámetros.

4. Transformación de variables. Suponga que tenemos información de series de tiempo sobre el gasto de consumo, el ingreso y la riqueza. Una razón de la alta multicolinealidad entre el ingreso y la riqueza en tal información es que, con el tiempo, las dos variables tienden a moverse en la misma dirección. Una forma de reducir esta dependencia es proceder de la siguiente manera. Si la relación

se cumple en el periodo t, también debe cumplirse en el periodo t − 1, pues el origen del tiempo es, de todas formas, arbitrario. Por consiguiente, tenemos que:

Si se resta se obtiene que:

donde vt=ut−ut−1. La ecuación se conoce como la forma en primeras diferencias porque no se hace la regresión sobre las variables originales, sino sobre las diferencias de los valores sucesivos de dichas variables. El modelo de regresión que utiliza primeras diferencias a menudo reduce la gravedad de la multicolinealidad porque, aunque los niveles de X2 y X3 estén muy correlacionados, no hay razón a priori para pensar que sus diferencias también lo están. Una ventaja incidental de la transformación de primeras diferencias consiste en que puede hacer que una serie de tiempo no estacionaria se convierta en estacionaria. Otra transformación común en la práctica es la transformación de razón. Considere el siguiente modelo:

donde Y es el gasto de consumo en dólares reales, X2 es el PIB y X3 es la población total. Como el PIB y la población aumentan con el tiempo, es muy probable que estén correlacionados. Una “solución” a este problema consiste en expresar el modelo mediante una base per cápita; es decir, dividir entre X3 para obtener:

Dicha transformación tal vez reduzca la colinealidad en las variables originales. Sin embargo, la transformación que utiliza primeras diferencias o las transformaciones de razón crean otros problemas. Por ejemplo, el término de error vt puede no satisfacer un supuesto del modelo clásico de regresión lineal, a saber, que las perturbaciones no están serialmente correlacionadas, si el término de perturbación ut original no está serialmente correlacionado, el término de error vt obtenido antes estará, en la mayoría de los casos, serialmente correlacionado.

5. Datos nuevos o adicionales. Como la multicolinealidad es una característica de la muestra, es posible que en otra muestra con las mismas variables la colinealidad no sea tan grave como en la primera. A veces, con sólo aumentar el tamaño de la

muestra (si esto es posible) se atenúa el problema de colinealidad. Por ejemplo, en el modelo de tres variables vimos que:

Ahora, a medida que aumenta el tamaño de la muestra, ∑x22i por lo general aumenta. Por consiguiente, para cualquier r23 dado, la varianza de βˆ2 disminuirá, para reducir el error estándar, lo cual permite estimar β 2 de manera más precisa....


Similar Free PDFs