View
9
Download
3
Category
Preview:
Citation preview
MANUAL DE LABORATORIO DE CÓMPUTOMANUAL DE LABORATORIO DE CÓMPUTO
ECONOMETRÍA IECONOMETRÍA I
MULTICOLINEALIDADMULTICOLINEALIDAD
Profesor: Barland A. Huamán Bravo
2011
UNIVERSIDAD NACIONAL AGRARIA DE LA SELVAUNIVERSIDAD NACIONAL AGRARIA DE LA SELVA
FACULTAD DE CIENCIAS ECONÓMICAS Y ADMINISTRATIVASFACULTAD DE CIENCIAS ECONÓMICAS Y ADMINISTRATIVAS
DEPARTAMENTO ACADÉMICO DE CIENCIAS ECONÓMICASDEPARTAMENTO ACADÉMICO DE CIENCIAS ECONÓMICAS
ESQUEMA
INTRODUCCIÓN
PROBLEMAS CON LOS ESTIMADORES MCO
DETECCIÓN DEL PROBLEMA
POSIBLES SOLUCIONES
APLICACIONES
1. INTRODUCCIÓN
SUPUESTO CLÁSICO 3:
Este supuesto implica dos condiciones:
• El número de observaciones “n” es mayor que el número de
variables explicativas “k”, es decir, “n > k”.
• No existe relación exacta entre las variables explicativas: no
existe colinealidad o multicolinealidad. Formalmente, el rango
de la matriz X’X debe ser igual a k (rango completo por
columnas).
1. INTRODUCCIÓN
INCUMPLIMIENTO DEL SUPUESTO 3:
Sucede cuando se incumple alguna de las dos condiciones:
• El número de observaciones es menor o igual que el número de variables
explicativas.
• Existencia de relación lineal exacta o aproximadamente lineal entre dos
o más variables explicativas: colinealidad o multicolinealidad. Esto
implica que el rango de la matriz X’X es menor que k, por lo cual X’X no
tiene inversa y por ende no es posible calcular los estimadores MCO.
1. INTRODUCCIÓN
Estos fenómenos son muy raros:
• En general, siempre se busca un tamaño de muestra tal que sea mayor que el
número de parámetros a estimar. En particular, al estimar por MCO, esto
permite obtener menores varianzas de los estimados, pues los grados de
libertad son mayores: S2 = e’e / n-k
• La Multicolinealidad Exacta es un caso teórico. Si bien es cierto no incumple el
supuesto clásico 3, la presencia de Multicolinealidad (relación aproximadamente
lineal entre variables explicativas, y no exacta), genera problemas de estimación
tan importantes que se considera como un caso de incumplimiento del supuesto.
1. INTRODUCCIÓN
• Así, la multicolinealidad no depende de la existencia teórica o real de una
relación lineal entre los regresores, sino de la existencia de una relación
aproximadamente lineal en la muestra disponible.
• La multicolinealidad en los datos puede surgir por varias razones:
- Tendencias temporales comunes.
- Una explicativa es el rezago de otra explicativa que sigue una tendencia.
-Algunas explicativas varían juntas porque los datos no fueron recopilados de
una base suficientemente amplia.
- La multicolinealidad entre las explicativas existe verdaderamente.
2. PROBLEMAS CON LOS ESTIMADORES MCO
• Los estimadores MCO siguen siendo MELI. En particular, siguen manteniendo sus
propiedades porque en estricto no se ha incumplido el supuesto clásico 5 por la
presencia de Multicolinealidad (relación aproximadamente lineal entre las
explicativas).
• El R2 no se afecta.
• Sin embargo, el principal problema de la presencia de Multicolinealidad es que
PUEDE GENERAR JUNTO CON OTROS FACTORES que la varianza de los
estimadores MCO de los parámetros de las variables colineales sea bastante
grande: KkRR
knVar
kk
yk ,,2,1,
)1(1
ˆ
ˆ1)ˆ( 2
2
2
2
2. PROBLEMAS CON LOS ESTIMADORES MCO
• Debido a que los estimados de las varianzas son
grandes, las inferencias se distorsionan, obteniéndose
estadísticos calculados menores a los correctos.
• Por esto, la presencia de multicolinealidad puede
conducir muy fácilmente a errores de especificación
(incluir variables irrelevantes u omitir variables
importantes para la relación).
2. PROBLEMAS CON LOS ESTIMADORES MCO• Ejemplo: precisión del estimador puede ser afectado por la colinealidad entre los
regresores o por “otros factores”
2,
2
22
2
22
2,
2
22
2
2
2,2
2
2,
2
22
22
2
3322133221
32
32
3232
2
11
)( s.e. deestándar desvación
11
deestándar desvación
11
)(MSD11
)(
ˆ,
XXi
u
XXi
u
XX
u
XXi
ub
rXX
sbb
rXXb
rXnrXXbVar
XbXbbYuXXY
MSD: mean square deviation 2
222
1XX
nXMSD i
3. DETECCIÓN DEL PROBLEMA
• La presencia de Multicolinealidad se evidencia cuando:
- Los signos estimados no son los esperados.
- Los estadísticos “t” no son significativos, a pesar de un R2 alto.
- Los resultados de la regresión cambian de manera importante cuando una
variable explicativa se elimina.
• Otra forma popular es a través de las correlaciones entre las explicativas. Un
valor alto (0,8 ó 0,9 en valor absoluto) del coeficiente de correlación entre dos
variables explicativas indicaría la presencia de colinealidad entre ellas. El
problema es que esta metodología no permite identificar la presencia de relación
lineal entre tres o más variables.
3. DETECCIÓN DEL PROBLEMA
• Una forma menos común, pero más satisfactoria, para identificar la presencia de
multicolinealidad es a través del índice de condición de los datos o número de
condición de los datos (condition index o condition number). Este índice o
número es igual a la raíz cuadrada del cociente de los autovalores (valores
propios) máximo y mínimo de la matriz X’X:
• Mientras más grande sea el número, mayor la probabilidad de que exista un
problema de colinealidad. Besley, Kuh y Welsch (1980) establecen que si es
mayor a 20, existen indicios del problema.
MIN
MAXI
3. DETECCIÓN DEL PROBLEMA
• Otra forma para detectar si la multicolinealidad es dañina podemos construir los factores de inflación de varianza: inversa de matriz de correlaciones entre los regresores:
– Se basa en la inversa de la matriz de correlaciones de los regresores, pero considerando valores estandarizados de los mismos.
– Los elementos de la diagonal de la inversa de la matriz de correlaciones se denominan factores de inflación de varianza o VIF. Si se tiene que VIFi >10, entonces se concluye que existe colinealidad dañina.
• • .
4. POSIBLES SOLUCIONES
• Existen dos posibles soluciones:
1. Dejar las cosas como están.
2. Incorporar información adicional
1. Dejar las cosas como están
• Las varianzas altas pueden ser aceptables: estimación de una función de
producción Cobb-Douglas:
– “No es preocupante si el R2 de la regresión es mayor que el R2 de la regresión de
cualquier variable independiente contra las otras independientes”.
– “No es preocupante si los estadísticos t son todos mayores a 2”.
4. POSIBLES SOLUCIONES
2. Incorporar mayor información
Existen diversas posibilidades, que deben tomarse en cuenta, incluso si no existe
multicolinealidad:
– Obtener más datos (el incremento de observaciones mejora la precisión del
estimador)
– Formalizar relaciones entre los regresores: Ecuaciones Simultáneas.
rPBIPM
PBIPMr
rPMPBI
321
321
321
)/(
)/(
)/(
4. POSIBLES SOLUCIONES
2. Incorporar mayor información
– Remover la variable que genera colinealidad: ¿sesgo vs. varianza? Variables
omitidas vs. Variables redundantes.
– Incorporar estimados de otros estudios.
– Formar un componente principal: aprovecha la información de dos o más
regresores que presentan un alto grado de asociación lineal a través de una
suma ponderada de los mismos. No se puede identificar por separado el
efecto de la cada uno de los regresores sobre la endógena.
– Se analiza el R2 de la regresión de cada explicativa contra los demás
regresores. Si alguno de ellos es mayor al R2 del modelo original, entonces
existen indicios de multicolinealidad.
5. APLICACIONES
Detección
El modelo:
•¿Presenta los signos correctos?•¿Los parámetros de la regresión son significativos?•¿Qué nos indica la prueba de significancia conjunta?•¿Es dañina la relación que existe entre los regresores “age” y “age^2”?
5. APLICACIONES
5. APLICACIONES
5. APLICACIONES
• Análisis de “Variance Inflation Factors” (VIFs) mide el nivel de colinealidad entre los regresores de la ecuación.
• Mide que tanto de la varianza estimada de un regresor se ha incrementado debido a la colinealidad con otros regresores.
• Se calculan como la división de la varianza estimada de un coeficiente por la varianza estimada de este coeficiente que resulta de una ecuación en la que otros regresores no se incluyeron en la ecuación.
5. APLICACIONES
• VIF Centrado: ratio de la varianza del coeficiente estimado de la regresión original dividido entre la varianza del coeficiente de una ecuación que sólo incluye el regresor y una constante.
• VIF no centrado considera en el denominador del ratio la varianza del coeficiente estimado cuando se incluye solo el regresor en la ecuación..
Recommended