AUTOCORRELACIÓN

Preview:

DESCRIPTION

AUTOCORRELACIÓN. Violación del supuesto de No Autocorrelación Serial o relaci ón entre las perturbaciones Profesora Samaria Muñoz. 1.- Definición - cuándo ocurre la autocorrelación. 2.- Causas de la Autocorrelación. 3.- Por qué Ocurre la Autocorrelación. 4.- Tipos de Autocorrelación. - PowerPoint PPT Presentation

Citation preview

AUTOCORRELACIÓN.

Violación del supuesto de No Autocorrelación Serial o relación entre

las perturbaciones

Profesora Samaria Muñoz

2

1.- Definición - cuándo ocurre la autocorrelación

2.- Causas de la Autocorrelación

3.- Por qué Ocurre la Autocorrelación

4.- Tipos de Autocorrelación

5.- Detección de la Autocorrelación

6.- Cómo corregirla

Definición o cuando ocurre la autocorrelación

4

Autocorrelación Aparece cuando los términos de error

del modelo no son independientes entre sí.

La autocorrelación generalmente aparece en datos en serie de tiempo aunque también se presenta en el caso de en corte transversal.

Aquí se estudiará el primer caso.

E u u i ji j( ) 0

Causas de la Autocorrelación

6

Causas de Autocorrelación

Error de especificación por excluir variables

Error de especificación debido a forma funcional incorrecta

El fenómeno de la telaraña El comportamiento lento, cíclico y

sesgado de las variables económicas

El Uso de modelos Autoregresivos

7

Con la presencia de autocorrelación los estimadores obtenidos con mínimos cuadrados ordinarios dejan de ser MELI, en el sentido que dejan de ser aquellos con varianza mínima.

Ignorar el problema de la autocorrelación lleva a que las pruebas t y F dejen de ser válidas y muy probablemente arrojen conclusiones erradas.

Autocorrelación

Por que Ocurre la Autocorrelación

9

Por qué ocurre la Autocorrelación

Inercia. Cuando existen tendencias marcadas que influyen en los valores futuros de la serie.

Sesgos de especificación. Cuando se elige mal la forma funcional o cuando se omiten variables, lo cual genera un comportamiento sistemático en el término estocástico.

10

Tiempo de ajuste. Implica el tiempo que los agentes económicos deben tomar para procesar información de un período dado. Así un fenómeno sucedido en un período determinado puede impactar en uno o varios posteriores.

Tipos de Autocorrelación

PATRONES DE PATRONES DE AUTOCORRELACIÓN Y DE NO AUTOCORRELACIÓN Y DE NO AUTOCORRELACIÓNAUTOCORRELACIÓN

13

14

Detección de la Autocorrelación

16

Detección de la Autocorrelación

Prueba Gráfico Prueba de las rachas Prueba de Durbin y Watson Modelo Autoregresivo de

Markov Prueba de Breusch – Godfrey

Prueba Gráfico

18

19

-6

-4

-2

0

2

4

6

1959 1964 1969 1974 1979 1984 1989 1994

AÑOS

RE

SID

UO

S

RESI D REALES RESI D ESTANDARI ZADOS

20

2. Prueba de las rachas o prueba de Geary

22

OBSERV RES1 RES(-1) SRES1

1959 -4,70398 0 -1,758168

1960 -3,87491 -4,70398 -1,448293

1961 -3,35949 -3,87491 -1,255651

1962 -2,80091 -3,35949 -1,045874

1963 -2,82823 -2,80091 -1,057084

1964 -2,11238 -2,82823 -0,789526

1965 -2,0397 -2,11238 -0,762361

1966 -1,25248 -2,0397 -0,468129

1967 -0,28024 -1,25248 -0,104742

1968 0,949719 -0,28024 0,354966

1969 1,835615 0,949713 0,686083

1970 2,236492 1,835615 0,835915

1971 1,880977 2,236492 0,703038

1972 2,710926 1,880977 1,013241

1973 3,012241 2,710926 1,125861

1974 2,654535 3,012241 0,992164

1975 1,59902 2,654535 0,597653

1976 2,386238 1,59902 0,891885

1977 2,629847 2,386238 0,982936

1978 3,444821 2,629847 1,287543

23

Se tienen residuos positivos y negativos si los residuos fuesen aleatorios ¿seria posible observar tal patrón? Intuitivamente parece poco probable. Esta intuición puede verificarse mediante la prueba de “las rachas” conocida también como prueba de Gearey, es una prueba no paramétrica.

Prueba de las rachas

24

RACHA: sucesión ininterrumpida de un símbolo o atributo, tal como + o -.

LONGITUD DE LA RACHA: número de elementos en ésta.

Prueba de las rachas

N = número total de observaciones=N1 +N2

N1= número de símbolos + (es decir resid +)

N2= número de símbolos - (es decir resid -)

R = número de rachas

25

Bajo la hipótesis nula de que los residuos son independientes y suponiendo que N1>10 y N2 >10, el número de rachas está (asintóticamente) normalmente distribuido con:

Prueba de las rachas

26

Media:

Varianza:

12

)( 21 N

NNRE

)1()(

)2(22

21212

NN

NNNNNR

Prueba de las rachas

27

Si la hipótesis nula de aleatoriedad es sostenible, se debe esperar que:

Es decir, la probabilidad es de 95%, de que el intervalo anterior incluya R.

95.096.1)(96.1)(Pr RR RERREob

Prueba de las rachas

28

Regla de decisión: No se rechace la hipótesis nula de aleatoriedad al 95% de confianza si R, el número de rachas, esta en el intervalo de confianza anterior; rechácese la hipótesis nula si la R estimada se encuentra fuera de estos limites. (se puede elegir cualquier nivel de confianza).

Prueba de las rachas

29

Como regla general si existe autocorrelación positiva, el número de rachas será reducido, mientras que si existe autocorrelación negativa el número de rachas será grande.

30

(- - - - - - - - - ) (+++++++++++++++++++++) (- - - - - - - - - -)

N = número total de observaciones 40

N1= número de símbolos + ,21

N2= número de símbolos –, 19

Longitud de racha 1=9 ,de racha 2=21, de racha 3=10R = número de rachas, 3.

Ejemplo

31

H0: Los residuos en la regresión son aleatorios.

H1: Los residuos no son aleatorios.

975.1012

)( 21 N

NNRE

6336.9)1()(

)2(22

212122

NN

NNNNNR 1134.3R

Ejemplo

32

El Intervalo de Confianza de 95% para R es:

95.096.1)(96.1)(Pr RR RERREob

1134.3(96.1975.10)1134.3(96.1975.10 R

0722.178728.4 R

Ejemplo

33

Regla de decisión: Como el intervalo no incluye al 3 se rechaza la hipótesis de que los residuos son aleatorios, con un 95% de confianza. Es decir los residuos muestran autocorrelación.

Ejemplo

Durbin Watson.

35

Para detectar la presencia de autocorrelación en una serie de datos la prueba más utilizada y que aparece en prácticamente todos los softwares econométricos es la de Durbin Watson.

Para este fin se define el estadístico de la siguiente manera:

de e

e

t tt

t N

tt

t N

( )12

2

2

1

Durbin y Watson

36

Dicho estadístico se basa en los residuos que se calculan automáticamente en el análisis de regresión.

Otra forma de representar el estimador es de la siguiente manera:

Donde ^ es un estimador del coeficiente de autocorrelación de primer orden.

d 2 1( )

Durbin y Watson

37

El valor de ^ estará entre 1 y -1 lo cual implica que 0 < d < 4

Cuando ^ = 0 tendremos que d = 2 Cuando ^ = -1 tendremos que d = 4 Cuando ^ = 1 tendremos que d = 0

Por tanto, como regla general, si se encuentra que d = 2 puede suponerse que no existe autocorrelación de primer orden.

Durbin y Watson

38

Tablas: Durbin y Watson formularon una tabla

donde se muestran los límites inferiores y superiores de un valor crítico (dL y dU) que, de acuerdo al valor obtenido en la estimación del estadístico d, permite tomar decisiones sobre la posible presencia de correlación serial positiva o negativa.

Durbin y Watson

39

Los valores de significancia de las tablas de Durbin-Watson se tabulan para probar la hipótesis de ρ=o, contra ρ>0. La tabla arroja dos valores dL y dU.

Si d>2 y se desea probar la hipótesis de ρ=o, contra ρ<0 , se considera 4-d y se hace referencia a las tablas como si se probara una autocorrelación positiva

)ˆ1(2 dDurbin y Watson

6 de Junio 2007 40

Durbin y Watsonƒ(d)

dl du (4-du) (4-dl)

ρ=1 ρ=0 ρ= -1¿? ¿?

40

41

Rechácese Ho. Evidencia de autocorrelación Positiva

Zona de

indecisión

No se rechace

Ho O Ho* o

ambas

Zona de

indecisión

Rechácese Ho*. Evidencia de autocorrelación negativa

0 dL dU 2 4- dU 4- dl 4

42

Durbin y Watson Cuando la estimación del modelo excluye el

intercepto u ordenada en el origen la prueba se invalida

Cuando existen dos o mas variables rezagadas, el DW estará cerca de 2 aun cuando los errores estén correlacionados

Para ello se utiliza el estadístico h de Durbin

43

dl= 1.338

du=1.659

d=0.756968

44

Modelo Autoregresivo de Markov

45

Como primera aproximación se asume que las perturbaciones se generan de la siguiente manera:

se le conoce como coeficiente de autocovarianza o de autocorrelación y es una perturbación estocástica que satisface los supuestos MCO tradicionales.

u ut t t 1 1 1

Modelo Autoregresivo de Markov

46

Sabemos que -1 < < 1

Si = 0 no existe autocorrelación Si = 1 o >0 existe autocorrelación positiva

perfecta Si = -1 o <0 existe autocorrelación

negativa perfecta

Este es un comportamiento autorregresivo de primer orden y se denota como AR(1).

Modelo Autoregresivo de Markov

47

48

Permite detectar la presencia de autocorrelación de mayor orden, es decir, con más de un retardo.

Se determina un estadístico igual a n * R² con X2(p) p grados de liberta p=los retardos

Se establece como decisión “si el estadístico es mayor al X² (p) no hay autocorrelacion

Ho= no autocorrelacón Hi= Hay atocorrelacion

Prueba de Breusch – Godfrey

tttkikiii vXXX 221122110 ......

49

50

El valor del X2 con dos grados de libertad es igual a 5.99147 y el de n* R² es igual a 13.47355.

Dado a que 5.99147<13.47355 Se rechaza la hipótesis nula, aceptando los problemas de autocorrelación correspondientes

Cómo corregirla

52

AutocorrelaciónMedidas Remediales Cuando se conoce la estructura de la

autocorrelación se lleva a cabo una transformación de la ecuación a estimar para que cumpla con los supuestos de MCO.

Supongamos un esquema autorregresivo de primer orden:

u ut t t 1

Y Xt t t 1 2 + u

También supongamos el siguiente modelo:

53

Tendremos por tanto que:

Y Xt t t 1 1 2 1 1 + u

Y Xt t t 1 1 2 1 1+ u

( ) ( )

( ) (

Y Y X X

X Xt t t t t t

t t t

1 1 2 2 1 1

1 2 2 1

1

1

+ (u - u )

= ) +

Multiplicando la ecuacion (2) por tenemos que:

Al restar (1) y (3) tenemos que:

54

La cual cumple con todos los supuestos de MCO pudiendo obtener de las variables transformadas unos estimadores MELI.

Esta regresión se le conoce como ecuación de diferencia generalizada, la cual involucra la regresión de Y en X en forma de diferencias.

Y Xt t t* * * * 1 2 +

La ecuación (4) puede entonces expresarse como:

55

Cuando no se conoce la estructura de la correlación deben llevarse a cabo algunas aproximaciones por medio de diversos métodos entre los que destacan los siguientes: Método de la primera diferencia Estimación de en base al estadístico d Procedimiento de Cochrane Orcutt para

estimar

56

La primera etapa consiste en estimar p a partir de los residuales estimados, efectuando para ello el modelo de Markov

La segunda etapa, se utiliza la estimación de p para hacer la regresión de la ecuación.1* tt YYY

1* tt XXX

Ejercicio

58

Prueba grafica

60

residuos

-1.052.139

-2.034.008

-1.248.974

-1.058.932

-1.985.693

-1.671.557

-0.056925

0.098389

0.822777

1.655.767

0.971150

2.479.346

0.654074

3.133.900

0.960641

-1.418.921

-1.429.843

1.508.435

2.213.921

1.757.394

-1.456.967

0.790664

-3.632.498

61

62

Durbin y Watson

64

Modelo Autoregresivo de Markov

66

Corrección de la autocorrelación

68

69

70

71

Recommended