71
AUTOCORRELACIÓN. Violación del supuesto de No Autocorrelación Serial o relación entre las perturbaciones Profesora Samaria Muñoz

AUTOCORRELACIÓN

  • Upload
    theta

  • View
    164

  • Download
    15

Embed Size (px)

DESCRIPTION

AUTOCORRELACIÓN. Violación del supuesto de No Autocorrelación Serial o relaci ón entre las perturbaciones Profesora Samaria Muñoz. 1.- Definición - cuándo ocurre la autocorrelación. 2.- Causas de la Autocorrelación. 3.- Por qué Ocurre la Autocorrelación. 4.- Tipos de Autocorrelación. - PowerPoint PPT Presentation

Citation preview

Page 1: AUTOCORRELACIÓN

AUTOCORRELACIÓN.

Violación del supuesto de No Autocorrelación Serial o relación entre

las perturbaciones

Profesora Samaria Muñoz

Page 2: AUTOCORRELACIÓN

2

1.- Definición - cuándo ocurre la autocorrelación

2.- Causas de la Autocorrelación

3.- Por qué Ocurre la Autocorrelación

4.- Tipos de Autocorrelación

5.- Detección de la Autocorrelación

6.- Cómo corregirla

Page 3: AUTOCORRELACIÓN

Definición o cuando ocurre la autocorrelación

Page 4: AUTOCORRELACIÓN

4

Autocorrelación Aparece cuando los términos de error

del modelo no son independientes entre sí.

La autocorrelación generalmente aparece en datos en serie de tiempo aunque también se presenta en el caso de en corte transversal.

Aquí se estudiará el primer caso.

E u u i ji j( ) 0

Page 5: AUTOCORRELACIÓN

Causas de la Autocorrelación

Page 6: AUTOCORRELACIÓN

6

Causas de Autocorrelación

Error de especificación por excluir variables

Error de especificación debido a forma funcional incorrecta

El fenómeno de la telaraña El comportamiento lento, cíclico y

sesgado de las variables económicas

El Uso de modelos Autoregresivos

Page 7: AUTOCORRELACIÓN

7

Con la presencia de autocorrelación los estimadores obtenidos con mínimos cuadrados ordinarios dejan de ser MELI, en el sentido que dejan de ser aquellos con varianza mínima.

Ignorar el problema de la autocorrelación lleva a que las pruebas t y F dejen de ser válidas y muy probablemente arrojen conclusiones erradas.

Autocorrelación

Page 8: AUTOCORRELACIÓN

Por que Ocurre la Autocorrelación

Page 9: AUTOCORRELACIÓN

9

Por qué ocurre la Autocorrelación

Inercia. Cuando existen tendencias marcadas que influyen en los valores futuros de la serie.

Sesgos de especificación. Cuando se elige mal la forma funcional o cuando se omiten variables, lo cual genera un comportamiento sistemático en el término estocástico.

Page 10: AUTOCORRELACIÓN

10

Tiempo de ajuste. Implica el tiempo que los agentes económicos deben tomar para procesar información de un período dado. Así un fenómeno sucedido en un período determinado puede impactar en uno o varios posteriores.

Page 11: AUTOCORRELACIÓN

Tipos de Autocorrelación

Page 12: AUTOCORRELACIÓN

PATRONES DE PATRONES DE AUTOCORRELACIÓN Y DE NO AUTOCORRELACIÓN Y DE NO AUTOCORRELACIÓNAUTOCORRELACIÓN

Page 13: AUTOCORRELACIÓN

13

Page 14: AUTOCORRELACIÓN

14

Page 15: AUTOCORRELACIÓN

Detección de la Autocorrelación

Page 16: AUTOCORRELACIÓN

16

Detección de la Autocorrelación

Prueba Gráfico Prueba de las rachas Prueba de Durbin y Watson Modelo Autoregresivo de

Markov Prueba de Breusch – Godfrey

Page 17: AUTOCORRELACIÓN

Prueba Gráfico

Page 18: AUTOCORRELACIÓN

18

Page 19: AUTOCORRELACIÓN

19

-6

-4

-2

0

2

4

6

1959 1964 1969 1974 1979 1984 1989 1994

AÑOS

RE

SID

UO

S

RESI D REALES RESI D ESTANDARI ZADOS

Page 20: AUTOCORRELACIÓN

20

Page 21: AUTOCORRELACIÓN

2. Prueba de las rachas o prueba de Geary

Page 22: AUTOCORRELACIÓN

22

OBSERV RES1 RES(-1) SRES1

1959 -4,70398 0 -1,758168

1960 -3,87491 -4,70398 -1,448293

1961 -3,35949 -3,87491 -1,255651

1962 -2,80091 -3,35949 -1,045874

1963 -2,82823 -2,80091 -1,057084

1964 -2,11238 -2,82823 -0,789526

1965 -2,0397 -2,11238 -0,762361

1966 -1,25248 -2,0397 -0,468129

1967 -0,28024 -1,25248 -0,104742

1968 0,949719 -0,28024 0,354966

1969 1,835615 0,949713 0,686083

1970 2,236492 1,835615 0,835915

1971 1,880977 2,236492 0,703038

1972 2,710926 1,880977 1,013241

1973 3,012241 2,710926 1,125861

1974 2,654535 3,012241 0,992164

1975 1,59902 2,654535 0,597653

1976 2,386238 1,59902 0,891885

1977 2,629847 2,386238 0,982936

1978 3,444821 2,629847 1,287543

Page 23: AUTOCORRELACIÓN

23

Se tienen residuos positivos y negativos si los residuos fuesen aleatorios ¿seria posible observar tal patrón? Intuitivamente parece poco probable. Esta intuición puede verificarse mediante la prueba de “las rachas” conocida también como prueba de Gearey, es una prueba no paramétrica.

Prueba de las rachas

Page 24: AUTOCORRELACIÓN

24

RACHA: sucesión ininterrumpida de un símbolo o atributo, tal como + o -.

LONGITUD DE LA RACHA: número de elementos en ésta.

Prueba de las rachas

N = número total de observaciones=N1 +N2

N1= número de símbolos + (es decir resid +)

N2= número de símbolos - (es decir resid -)

R = número de rachas

Page 25: AUTOCORRELACIÓN

25

Bajo la hipótesis nula de que los residuos son independientes y suponiendo que N1>10 y N2 >10, el número de rachas está (asintóticamente) normalmente distribuido con:

Prueba de las rachas

Page 26: AUTOCORRELACIÓN

26

Media:

Varianza:

12

)( 21 N

NNRE

)1()(

)2(22

21212

NN

NNNNNR

Prueba de las rachas

Page 27: AUTOCORRELACIÓN

27

Si la hipótesis nula de aleatoriedad es sostenible, se debe esperar que:

Es decir, la probabilidad es de 95%, de que el intervalo anterior incluya R.

95.096.1)(96.1)(Pr RR RERREob

Prueba de las rachas

Page 28: AUTOCORRELACIÓN

28

Regla de decisión: No se rechace la hipótesis nula de aleatoriedad al 95% de confianza si R, el número de rachas, esta en el intervalo de confianza anterior; rechácese la hipótesis nula si la R estimada se encuentra fuera de estos limites. (se puede elegir cualquier nivel de confianza).

Prueba de las rachas

Page 29: AUTOCORRELACIÓN

29

Como regla general si existe autocorrelación positiva, el número de rachas será reducido, mientras que si existe autocorrelación negativa el número de rachas será grande.

Page 30: AUTOCORRELACIÓN

30

(- - - - - - - - - ) (+++++++++++++++++++++) (- - - - - - - - - -)

N = número total de observaciones 40

N1= número de símbolos + ,21

N2= número de símbolos –, 19

Longitud de racha 1=9 ,de racha 2=21, de racha 3=10R = número de rachas, 3.

Ejemplo

Page 31: AUTOCORRELACIÓN

31

H0: Los residuos en la regresión son aleatorios.

H1: Los residuos no son aleatorios.

975.1012

)( 21 N

NNRE

6336.9)1()(

)2(22

212122

NN

NNNNNR 1134.3R

Ejemplo

Page 32: AUTOCORRELACIÓN

32

El Intervalo de Confianza de 95% para R es:

95.096.1)(96.1)(Pr RR RERREob

1134.3(96.1975.10)1134.3(96.1975.10 R

0722.178728.4 R

Ejemplo

Page 33: AUTOCORRELACIÓN

33

Regla de decisión: Como el intervalo no incluye al 3 se rechaza la hipótesis de que los residuos son aleatorios, con un 95% de confianza. Es decir los residuos muestran autocorrelación.

Ejemplo

Page 34: AUTOCORRELACIÓN

Durbin Watson.

Page 35: AUTOCORRELACIÓN

35

Para detectar la presencia de autocorrelación en una serie de datos la prueba más utilizada y que aparece en prácticamente todos los softwares econométricos es la de Durbin Watson.

Para este fin se define el estadístico de la siguiente manera:

de e

e

t tt

t N

tt

t N

( )12

2

2

1

Durbin y Watson

Page 36: AUTOCORRELACIÓN

36

Dicho estadístico se basa en los residuos que se calculan automáticamente en el análisis de regresión.

Otra forma de representar el estimador es de la siguiente manera:

Donde ^ es un estimador del coeficiente de autocorrelación de primer orden.

d 2 1( )

Durbin y Watson

Page 37: AUTOCORRELACIÓN

37

El valor de ^ estará entre 1 y -1 lo cual implica que 0 < d < 4

Cuando ^ = 0 tendremos que d = 2 Cuando ^ = -1 tendremos que d = 4 Cuando ^ = 1 tendremos que d = 0

Por tanto, como regla general, si se encuentra que d = 2 puede suponerse que no existe autocorrelación de primer orden.

Durbin y Watson

Page 38: AUTOCORRELACIÓN

38

Tablas: Durbin y Watson formularon una tabla

donde se muestran los límites inferiores y superiores de un valor crítico (dL y dU) que, de acuerdo al valor obtenido en la estimación del estadístico d, permite tomar decisiones sobre la posible presencia de correlación serial positiva o negativa.

Durbin y Watson

Page 39: AUTOCORRELACIÓN

39

Los valores de significancia de las tablas de Durbin-Watson se tabulan para probar la hipótesis de ρ=o, contra ρ>0. La tabla arroja dos valores dL y dU.

Si d>2 y se desea probar la hipótesis de ρ=o, contra ρ<0 , se considera 4-d y se hace referencia a las tablas como si se probara una autocorrelación positiva

)ˆ1(2 dDurbin y Watson

Page 40: AUTOCORRELACIÓN

6 de Junio 2007 40

Durbin y Watsonƒ(d)

dl du (4-du) (4-dl)

ρ=1 ρ=0 ρ= -1¿? ¿?

40

Page 41: AUTOCORRELACIÓN

41

Rechácese Ho. Evidencia de autocorrelación Positiva

Zona de

indecisión

No se rechace

Ho O Ho* o

ambas

Zona de

indecisión

Rechácese Ho*. Evidencia de autocorrelación negativa

0 dL dU 2 4- dU 4- dl 4

Page 42: AUTOCORRELACIÓN

42

Durbin y Watson Cuando la estimación del modelo excluye el

intercepto u ordenada en el origen la prueba se invalida

Cuando existen dos o mas variables rezagadas, el DW estará cerca de 2 aun cuando los errores estén correlacionados

Para ello se utiliza el estadístico h de Durbin

Page 43: AUTOCORRELACIÓN

43

dl= 1.338

du=1.659

d=0.756968

Page 44: AUTOCORRELACIÓN

44

Modelo Autoregresivo de Markov

Page 45: AUTOCORRELACIÓN

45

Como primera aproximación se asume que las perturbaciones se generan de la siguiente manera:

se le conoce como coeficiente de autocovarianza o de autocorrelación y es una perturbación estocástica que satisface los supuestos MCO tradicionales.

u ut t t 1 1 1

Modelo Autoregresivo de Markov

Page 46: AUTOCORRELACIÓN

46

Sabemos que -1 < < 1

Si = 0 no existe autocorrelación Si = 1 o >0 existe autocorrelación positiva

perfecta Si = -1 o <0 existe autocorrelación

negativa perfecta

Este es un comportamiento autorregresivo de primer orden y se denota como AR(1).

Modelo Autoregresivo de Markov

Page 47: AUTOCORRELACIÓN

47

Page 48: AUTOCORRELACIÓN

48

Permite detectar la presencia de autocorrelación de mayor orden, es decir, con más de un retardo.

Se determina un estadístico igual a n * R² con X2(p) p grados de liberta p=los retardos

Se establece como decisión “si el estadístico es mayor al X² (p) no hay autocorrelacion

Ho= no autocorrelacón Hi= Hay atocorrelacion

Prueba de Breusch – Godfrey

tttkikiii vXXX 221122110 ......

Page 49: AUTOCORRELACIÓN

49

Page 50: AUTOCORRELACIÓN

50

El valor del X2 con dos grados de libertad es igual a 5.99147 y el de n* R² es igual a 13.47355.

Dado a que 5.99147<13.47355 Se rechaza la hipótesis nula, aceptando los problemas de autocorrelación correspondientes

Page 51: AUTOCORRELACIÓN

Cómo corregirla

Page 52: AUTOCORRELACIÓN

52

AutocorrelaciónMedidas Remediales Cuando se conoce la estructura de la

autocorrelación se lleva a cabo una transformación de la ecuación a estimar para que cumpla con los supuestos de MCO.

Supongamos un esquema autorregresivo de primer orden:

u ut t t 1

Y Xt t t 1 2 + u

También supongamos el siguiente modelo:

Page 53: AUTOCORRELACIÓN

53

Tendremos por tanto que:

Y Xt t t 1 1 2 1 1 + u

Y Xt t t 1 1 2 1 1+ u

( ) ( )

( ) (

Y Y X X

X Xt t t t t t

t t t

1 1 2 2 1 1

1 2 2 1

1

1

+ (u - u )

= ) +

Multiplicando la ecuacion (2) por tenemos que:

Al restar (1) y (3) tenemos que:

Page 54: AUTOCORRELACIÓN

54

La cual cumple con todos los supuestos de MCO pudiendo obtener de las variables transformadas unos estimadores MELI.

Esta regresión se le conoce como ecuación de diferencia generalizada, la cual involucra la regresión de Y en X en forma de diferencias.

Y Xt t t* * * * 1 2 +

La ecuación (4) puede entonces expresarse como:

Page 55: AUTOCORRELACIÓN

55

Cuando no se conoce la estructura de la correlación deben llevarse a cabo algunas aproximaciones por medio de diversos métodos entre los que destacan los siguientes: Método de la primera diferencia Estimación de en base al estadístico d Procedimiento de Cochrane Orcutt para

estimar

Page 56: AUTOCORRELACIÓN

56

La primera etapa consiste en estimar p a partir de los residuales estimados, efectuando para ello el modelo de Markov

La segunda etapa, se utiliza la estimación de p para hacer la regresión de la ecuación.1* tt YYY

1* tt XXX

Page 57: AUTOCORRELACIÓN

Ejercicio

Page 58: AUTOCORRELACIÓN

58

Page 59: AUTOCORRELACIÓN

Prueba grafica

Page 60: AUTOCORRELACIÓN

60

residuos

-1.052.139

-2.034.008

-1.248.974

-1.058.932

-1.985.693

-1.671.557

-0.056925

0.098389

0.822777

1.655.767

0.971150

2.479.346

0.654074

3.133.900

0.960641

-1.418.921

-1.429.843

1.508.435

2.213.921

1.757.394

-1.456.967

0.790664

-3.632.498

Page 61: AUTOCORRELACIÓN

61

Page 62: AUTOCORRELACIÓN

62

Page 63: AUTOCORRELACIÓN

Durbin y Watson

Page 64: AUTOCORRELACIÓN

64

Page 65: AUTOCORRELACIÓN

Modelo Autoregresivo de Markov

Page 66: AUTOCORRELACIÓN

66

Page 67: AUTOCORRELACIÓN

Corrección de la autocorrelación

Page 68: AUTOCORRELACIÓN

68

Page 69: AUTOCORRELACIÓN

69

Page 70: AUTOCORRELACIÓN

70

Page 71: AUTOCORRELACIÓN

71