Upload
theta
View
164
Download
15
Embed Size (px)
DESCRIPTION
AUTOCORRELACIÓN. Violación del supuesto de No Autocorrelación Serial o relaci ón entre las perturbaciones Profesora Samaria Muñoz. 1.- Definición - cuándo ocurre la autocorrelación. 2.- Causas de la Autocorrelación. 3.- Por qué Ocurre la Autocorrelación. 4.- Tipos de Autocorrelación. - PowerPoint PPT Presentation
Citation preview
AUTOCORRELACIÓN.
Violación del supuesto de No Autocorrelación Serial o relación entre
las perturbaciones
Profesora Samaria Muñoz
2
1.- Definición - cuándo ocurre la autocorrelación
2.- Causas de la Autocorrelación
3.- Por qué Ocurre la Autocorrelación
4.- Tipos de Autocorrelación
5.- Detección de la Autocorrelación
6.- Cómo corregirla
Definición o cuando ocurre la autocorrelación
4
Autocorrelación Aparece cuando los términos de error
del modelo no son independientes entre sí.
La autocorrelación generalmente aparece en datos en serie de tiempo aunque también se presenta en el caso de en corte transversal.
Aquí se estudiará el primer caso.
E u u i ji j( ) 0
Causas de la Autocorrelación
6
Causas de Autocorrelación
Error de especificación por excluir variables
Error de especificación debido a forma funcional incorrecta
El fenómeno de la telaraña El comportamiento lento, cíclico y
sesgado de las variables económicas
El Uso de modelos Autoregresivos
7
Con la presencia de autocorrelación los estimadores obtenidos con mínimos cuadrados ordinarios dejan de ser MELI, en el sentido que dejan de ser aquellos con varianza mínima.
Ignorar el problema de la autocorrelación lleva a que las pruebas t y F dejen de ser válidas y muy probablemente arrojen conclusiones erradas.
Autocorrelación
Por que Ocurre la Autocorrelación
9
Por qué ocurre la Autocorrelación
Inercia. Cuando existen tendencias marcadas que influyen en los valores futuros de la serie.
Sesgos de especificación. Cuando se elige mal la forma funcional o cuando se omiten variables, lo cual genera un comportamiento sistemático en el término estocástico.
10
Tiempo de ajuste. Implica el tiempo que los agentes económicos deben tomar para procesar información de un período dado. Así un fenómeno sucedido en un período determinado puede impactar en uno o varios posteriores.
Tipos de Autocorrelación
PATRONES DE PATRONES DE AUTOCORRELACIÓN Y DE NO AUTOCORRELACIÓN Y DE NO AUTOCORRELACIÓNAUTOCORRELACIÓN
13
14
Detección de la Autocorrelación
16
Detección de la Autocorrelación
Prueba Gráfico Prueba de las rachas Prueba de Durbin y Watson Modelo Autoregresivo de
Markov Prueba de Breusch – Godfrey
Prueba Gráfico
18
19
-6
-4
-2
0
2
4
6
1959 1964 1969 1974 1979 1984 1989 1994
AÑOS
RE
SID
UO
S
RESI D REALES RESI D ESTANDARI ZADOS
20
2. Prueba de las rachas o prueba de Geary
22
OBSERV RES1 RES(-1) SRES1
1959 -4,70398 0 -1,758168
1960 -3,87491 -4,70398 -1,448293
1961 -3,35949 -3,87491 -1,255651
1962 -2,80091 -3,35949 -1,045874
1963 -2,82823 -2,80091 -1,057084
1964 -2,11238 -2,82823 -0,789526
1965 -2,0397 -2,11238 -0,762361
1966 -1,25248 -2,0397 -0,468129
1967 -0,28024 -1,25248 -0,104742
1968 0,949719 -0,28024 0,354966
1969 1,835615 0,949713 0,686083
1970 2,236492 1,835615 0,835915
1971 1,880977 2,236492 0,703038
1972 2,710926 1,880977 1,013241
1973 3,012241 2,710926 1,125861
1974 2,654535 3,012241 0,992164
1975 1,59902 2,654535 0,597653
1976 2,386238 1,59902 0,891885
1977 2,629847 2,386238 0,982936
1978 3,444821 2,629847 1,287543
23
Se tienen residuos positivos y negativos si los residuos fuesen aleatorios ¿seria posible observar tal patrón? Intuitivamente parece poco probable. Esta intuición puede verificarse mediante la prueba de “las rachas” conocida también como prueba de Gearey, es una prueba no paramétrica.
Prueba de las rachas
24
RACHA: sucesión ininterrumpida de un símbolo o atributo, tal como + o -.
LONGITUD DE LA RACHA: número de elementos en ésta.
Prueba de las rachas
N = número total de observaciones=N1 +N2
N1= número de símbolos + (es decir resid +)
N2= número de símbolos - (es decir resid -)
R = número de rachas
25
Bajo la hipótesis nula de que los residuos son independientes y suponiendo que N1>10 y N2 >10, el número de rachas está (asintóticamente) normalmente distribuido con:
Prueba de las rachas
26
Media:
Varianza:
12
)( 21 N
NNRE
)1()(
)2(22
21212
NN
NNNNNR
Prueba de las rachas
27
Si la hipótesis nula de aleatoriedad es sostenible, se debe esperar que:
Es decir, la probabilidad es de 95%, de que el intervalo anterior incluya R.
95.096.1)(96.1)(Pr RR RERREob
Prueba de las rachas
28
Regla de decisión: No se rechace la hipótesis nula de aleatoriedad al 95% de confianza si R, el número de rachas, esta en el intervalo de confianza anterior; rechácese la hipótesis nula si la R estimada se encuentra fuera de estos limites. (se puede elegir cualquier nivel de confianza).
Prueba de las rachas
29
Como regla general si existe autocorrelación positiva, el número de rachas será reducido, mientras que si existe autocorrelación negativa el número de rachas será grande.
30
(- - - - - - - - - ) (+++++++++++++++++++++) (- - - - - - - - - -)
N = número total de observaciones 40
N1= número de símbolos + ,21
N2= número de símbolos –, 19
Longitud de racha 1=9 ,de racha 2=21, de racha 3=10R = número de rachas, 3.
Ejemplo
31
H0: Los residuos en la regresión son aleatorios.
H1: Los residuos no son aleatorios.
975.1012
)( 21 N
NNRE
6336.9)1()(
)2(22
212122
NN
NNNNNR 1134.3R
Ejemplo
32
El Intervalo de Confianza de 95% para R es:
95.096.1)(96.1)(Pr RR RERREob
1134.3(96.1975.10)1134.3(96.1975.10 R
0722.178728.4 R
Ejemplo
33
Regla de decisión: Como el intervalo no incluye al 3 se rechaza la hipótesis de que los residuos son aleatorios, con un 95% de confianza. Es decir los residuos muestran autocorrelación.
Ejemplo
Durbin Watson.
35
Para detectar la presencia de autocorrelación en una serie de datos la prueba más utilizada y que aparece en prácticamente todos los softwares econométricos es la de Durbin Watson.
Para este fin se define el estadístico de la siguiente manera:
de e
e
t tt
t N
tt
t N
( )12
2
2
1
Durbin y Watson
36
Dicho estadístico se basa en los residuos que se calculan automáticamente en el análisis de regresión.
Otra forma de representar el estimador es de la siguiente manera:
Donde ^ es un estimador del coeficiente de autocorrelación de primer orden.
d 2 1( )
Durbin y Watson
37
El valor de ^ estará entre 1 y -1 lo cual implica que 0 < d < 4
Cuando ^ = 0 tendremos que d = 2 Cuando ^ = -1 tendremos que d = 4 Cuando ^ = 1 tendremos que d = 0
Por tanto, como regla general, si se encuentra que d = 2 puede suponerse que no existe autocorrelación de primer orden.
Durbin y Watson
38
Tablas: Durbin y Watson formularon una tabla
donde se muestran los límites inferiores y superiores de un valor crítico (dL y dU) que, de acuerdo al valor obtenido en la estimación del estadístico d, permite tomar decisiones sobre la posible presencia de correlación serial positiva o negativa.
Durbin y Watson
39
Los valores de significancia de las tablas de Durbin-Watson se tabulan para probar la hipótesis de ρ=o, contra ρ>0. La tabla arroja dos valores dL y dU.
Si d>2 y se desea probar la hipótesis de ρ=o, contra ρ<0 , se considera 4-d y se hace referencia a las tablas como si se probara una autocorrelación positiva
)ˆ1(2 dDurbin y Watson
6 de Junio 2007 40
Durbin y Watsonƒ(d)
dl du (4-du) (4-dl)
ρ=1 ρ=0 ρ= -1¿? ¿?
40
41
Rechácese Ho. Evidencia de autocorrelación Positiva
Zona de
indecisión
No se rechace
Ho O Ho* o
ambas
Zona de
indecisión
Rechácese Ho*. Evidencia de autocorrelación negativa
0 dL dU 2 4- dU 4- dl 4
42
Durbin y Watson Cuando la estimación del modelo excluye el
intercepto u ordenada en el origen la prueba se invalida
Cuando existen dos o mas variables rezagadas, el DW estará cerca de 2 aun cuando los errores estén correlacionados
Para ello se utiliza el estadístico h de Durbin
43
dl= 1.338
du=1.659
d=0.756968
44
Modelo Autoregresivo de Markov
45
Como primera aproximación se asume que las perturbaciones se generan de la siguiente manera:
se le conoce como coeficiente de autocovarianza o de autocorrelación y es una perturbación estocástica que satisface los supuestos MCO tradicionales.
u ut t t 1 1 1
Modelo Autoregresivo de Markov
46
Sabemos que -1 < < 1
Si = 0 no existe autocorrelación Si = 1 o >0 existe autocorrelación positiva
perfecta Si = -1 o <0 existe autocorrelación
negativa perfecta
Este es un comportamiento autorregresivo de primer orden y se denota como AR(1).
Modelo Autoregresivo de Markov
47
48
Permite detectar la presencia de autocorrelación de mayor orden, es decir, con más de un retardo.
Se determina un estadístico igual a n * R² con X2(p) p grados de liberta p=los retardos
Se establece como decisión “si el estadístico es mayor al X² (p) no hay autocorrelacion
Ho= no autocorrelacón Hi= Hay atocorrelacion
Prueba de Breusch – Godfrey
tttkikiii vXXX 221122110 ......
49
50
El valor del X2 con dos grados de libertad es igual a 5.99147 y el de n* R² es igual a 13.47355.
Dado a que 5.99147<13.47355 Se rechaza la hipótesis nula, aceptando los problemas de autocorrelación correspondientes
Cómo corregirla
52
AutocorrelaciónMedidas Remediales Cuando se conoce la estructura de la
autocorrelación se lleva a cabo una transformación de la ecuación a estimar para que cumpla con los supuestos de MCO.
Supongamos un esquema autorregresivo de primer orden:
u ut t t 1
Y Xt t t 1 2 + u
También supongamos el siguiente modelo:
53
Tendremos por tanto que:
Y Xt t t 1 1 2 1 1 + u
Y Xt t t 1 1 2 1 1+ u
( ) ( )
( ) (
Y Y X X
X Xt t t t t t
t t t
1 1 2 2 1 1
1 2 2 1
1
1
+ (u - u )
= ) +
Multiplicando la ecuacion (2) por tenemos que:
Al restar (1) y (3) tenemos que:
54
La cual cumple con todos los supuestos de MCO pudiendo obtener de las variables transformadas unos estimadores MELI.
Esta regresión se le conoce como ecuación de diferencia generalizada, la cual involucra la regresión de Y en X en forma de diferencias.
Y Xt t t* * * * 1 2 +
La ecuación (4) puede entonces expresarse como:
55
Cuando no se conoce la estructura de la correlación deben llevarse a cabo algunas aproximaciones por medio de diversos métodos entre los que destacan los siguientes: Método de la primera diferencia Estimación de en base al estadístico d Procedimiento de Cochrane Orcutt para
estimar
56
La primera etapa consiste en estimar p a partir de los residuales estimados, efectuando para ello el modelo de Markov
La segunda etapa, se utiliza la estimación de p para hacer la regresión de la ecuación.1* tt YYY
1* tt XXX
Ejercicio
58
Prueba grafica
60
residuos
-1.052.139
-2.034.008
-1.248.974
-1.058.932
-1.985.693
-1.671.557
-0.056925
0.098389
0.822777
1.655.767
0.971150
2.479.346
0.654074
3.133.900
0.960641
-1.418.921
-1.429.843
1.508.435
2.213.921
1.757.394
-1.456.967
0.790664
-3.632.498
61
62
Durbin y Watson
64
Modelo Autoregresivo de Markov
66
Corrección de la autocorrelación
68
69
70
71