10
1 AUTOCORRELACIÓN 1 Ing. Lorenzo Castro Gómez 2 Un supuesto importante del modelo clásico lineal presentado en el inicio del curso es que no hay autocorrelación o correlación serial entre las perturbaciones μ i consideradas dentro de la función de regresión poblacional. En este apartado, se examinara en forma critica este supuesto con el fin de buscar respuestas a las siguientes preguntas: 1. ¿Cuál es la naturaleza de la autocorrelación? 2. ¿Cuáles son las consecuencias teóricas y practicas de la autocorrelación? 3. Puesto que el supuesto de no autocorrelación se relaciona con las perturbaciones no observables μ i , como se sabe que hay autocorrelación en cualquier situación dada? 4. ¿Cómo se puede remediar el problema de la autocorrelación? El lector encontrara en este apartado, similitudes en muchos aspectos con el apartado anterior sobre heteroscedasticidad, puesto que en presencia de autocorrelación y de heteroscedasticidad, los estimadores, de mínimos cuadrados, a pesar de ser insesgados, dejan de tener mínima varianza entre todos los estimadores lineales insesgados. En resumen, dejan de ser mejores estimadores lineales insesgados. 1. NATURALEZA DEL PROBLEMA El término autocorrelación se puede definir como la (correlación entre miembros de series de observaciones ordenadas en el tiempo [como en información de series de tiempo] o en el espacio [como en información de corte transversal. En el contexto de regresión, el modelo clásico de regresión lineal supone que no existe tal autocorrelación en las perturbaciones μ i , Simbólicamente, E (μ i μ j ) = 0 i j 1 Notas preparadas para la materia de Econometría (tomadas del libro de Damodar N. Gujarati, Econometría 3 era Edición. 1997. México. Págs. 393 – 442. 2 Maestro del Departamento de Economía Agrícola de la DCSE de la Universidad Autónoma Agraria Antonio Narro. De Saltillo Coah., México.

Auto Corre Laci On

  • Upload
    alok

  • View
    216

  • Download
    0

Embed Size (px)

DESCRIPTION

Autocorrelacion

Citation preview

Page 1: Auto Corre Laci On

1

AUTOCORRELACIÓN1

Ing. Lorenzo Castro Gómez2 Un supuesto importante del modelo clásico lineal presentado en el inicio del curso es que no hay autocorrelación o correlación serial entre las perturbaciones µi consideradas dentro de la función de regresión poblacional. En este apartado, se examinara en forma critica este supuesto con el fin de buscar respuestas a las siguientes preguntas: 1. ¿Cuál es la naturaleza de la autocorrelación? 2. ¿Cuáles son las consecuencias teóricas y practicas de la autocorrelación? 3. Puesto que el supuesto de no autocorrelación se relaciona con las perturbaciones no observables µi, como se sabe que hay autocorrelación en cualquier situación dada? 4. ¿Cómo se puede remediar el problema de la autocorrelación? El lector encontrara en este apartado, similitudes en muchos aspectos con el apartado anterior sobre heteroscedasticidad, puesto que en presencia de autocorrelación y de heteroscedasticidad, los estimadores, de mínimos cuadrados, a pesar de ser insesgados, dejan de tener mínima varianza entre todos los estimadores lineales insesgados. En resumen, dejan de ser mejores estimadores lineales insesgados. 1. NATURALEZA DEL PROBLEMA El término autocorrelación se puede definir como la (correlación entre miembros de series de observaciones ordenadas en el tiempo [como en información de series de tiempo] o en el espacio [como en información de corte transversal. En el contexto de regresión, el modelo clásico de regresión lineal supone que no existe tal autocorrelación en las perturbaciones µi, Simbólicamente,

E (µi µj ) = 0 i ≠ j

1 Notas preparadas para la materia de Econometría (tomadas del libro de Damodar N. Gujarati, Econometría 3era Edición. 1997. México. Págs. 393 – 442. 2 Maestro del Departamento de Economía Agrícola de la DCSE de la Universidad Autónoma Agraria Antonio Narro. De Saltillo Coah., México.

Page 2: Auto Corre Laci On

2

Expresado en forma sencilla, el modelo clásico supone que el término de perturbación relacionado con una observación cualquiera no esta influenciado por el término de perturbación relacionado con cualquier otra observación. Por ejemplo, si sé esta tratando con información trimestral de series de tiempo, para efectuar una regresión de la producción sobre los insumos trabajo y capital y si, por ejemplo, hay una huelga laboral que afecta la producción en un trimestre, no hay razón para pensar que esta interrupción afectara la producción del trimestre siguiente. Es decir, si la producción es inferior este trimestre, no hay razón para esperar que esta sea baja en el siguiente trimestre. En forma similar, si sé esta tratando con información de corte transversal que involucra la regresión del gasto de consumo familiar sobre el ingreso familiar no se espera que el efecto de un incremento en el ingreso de una familia sobre su gasto de consumo incida sobre el gasto de consumo de otra. Sin embargo, si tal dependencia existe, se tiene autocorrelación. Simbólicamente,

E (µi µj) ≠ 0 i ≠ j En esta situación, la interrupción ocasionada por una huelga este trimestre puede afectar muy fácilmente la producción del siguiente trimestre, o los incrementos en el gasto de consumo de una familia pueden inducir muy fácilmente a otra familia a aumentar su gasto de consumo para no quedarse atrás de la primera. Antes de encontrar la razón de la existencia de la autocorrelación, es esencial aclarar algunos aspectos de terminología. Aunque, hoy en día, es práctica común tratar como sinónimos los términos autocorrelación y correlación serial, algunos autores prefieren diferenciar los dos términos. Por ejemplo se define autocorrelación como (correlación rezagada de una s erie dada consigo misma, rezagada por un número de unidades de tiempo ), mientras que reserva el término correlación serial para (correlación rezagada entre dos series diferentes). Aunque la distinción entre los dos términos puede ser de utilidad, en este apartado se consideraran como sinónimos. Se pueden visualizar algunos de los patrones razonables de autocorrelación y de no autocorrelación, los cuales están dados en la siguiente figura.

Page 3: Auto Corre Laci On

3

Page 4: Auto Corre Laci On

4

En las figuras a) a d) se ve que hay un patrón de distinguible entre las µ, mientras que en la figura e) no existe tal patrón, apoyando el supuesto que no hay autocorrelación. 2. DETECCION DE LA AUTOCORRELACIÓN La autocorrelación es potencialmente un problema grave. Por consiguiente, las medidas remédiales deben ser ciertamente apropiadas. Por supuesto, antes de hacer algo, es esencial averiguar si existe autocorrelación en una situación dada. En estos apuntes se consideraran algunas pruebas de correlación serial usadas comúnmente.

1. Prueba d de Durbin- Watson 3 La prueba mas conocida para detectar correlación serial es la desarrollada por los estadísticos Durbin y Watson. Es comúnmente conocida como el estadístico d de Durbin- Watson. el cual se define como d = (Σ ut – u t-1)

2 / Σ u2t

que es simplemente la razón de la suma de las diferencias al cuadrado de residuales sucesivos sobre la SCR. Obsérvese que en el numerador d el número de observaciones es n -1 porque una observación se pierde al obtener las diferencias consecutivas. Una gran ventaja del estadístico d es que esta basado en los residuales estimados, que aparecen sistematizados en los análisis de regresión. Debido a esta ventaja, es frecuente incluir el estadístico d de Durbin-Watson en los informes de análisis de regresión, junto con otros estadísticos resumen tales como el R2, el R ajustado, las razones t, etc. Aunque el estadístico d es utilizado ahora en forma sistematizada, es importante anotar los supuestos en los cuales este se basa:

1. El modelo de regresión incluye el término de intercepto. Si dicho término no esta presente, como es el caso de la regresión a través del origen, es esencial efectuar nuevamente la regresión incluyendo el término del intercepto para obtener la SCR.

3 En estos apuntes sólo se considera esta prueba. (como medida de detección y para poder remediar el modelo cuando aparezca autocorrelación).

Page 5: Auto Corre Laci On

5

2. Las variables explicativas, x son no estocásticas, es decir, son fijas en muestreo repetido.

3. Las perturbaciones µt se generan mediante el esquema autorregresivo de primer orden:

µt = ρµt-1 + εt

4. El modelo de regresión no incluye valor(es) rezagado(s) de la variable dependiente como una de las variables explicativas. Por tanto, la prueba es inaplicable a modelos grandes.

5. No hay observaciones faltantes en los datos. Por tanto, en un ejemplo de regresión de salarios- productividad para el período 1960-1991 si por alguna razón faltaran las observaciones, por ejemplo para 1963 y 1972, el estadístico d no permitiría la ausencia de tales observaciones.

El muestreo exacto o la distribución de probabilidad del estadístico d es difícil de derivar porque, como lo han demostrado Durbin y Watson, depende de forma compleja de los valores presentes de X en una muestra dada. Esta dificultad puede ser entendida porque d es calculado a partir de µt, los cuales, por supuesto, dependen de las X dadas. Por consiguiente, a diferencia de las pruebas t, F o χχχχ2, no hay un valor crítico único que lleve al rechazo o a la aceptación de la hipótesis nula de que no hay correlación serial de primer orden en las perturbaciones µi. Sin embargo, Durbin y Watson tuvieron éxito al encontrar un limite inferior dL, y un límite superior dU, tales que si el valor d calculado cae por fuera de estos valores críticos, puede tomarse una decisión con respecto a la presencia de correlación serial positiva o negativa. Además, estos límites solamente dependen del número de observaciones n y del número de variables explicativas y no dependen de los valores que adquieren estas variables explicativas. Estos límites para n, de 6 a 200 y hasta 20 variables explicativas, han sido tabulados por Durbin y Watson. (hasta 20 variables explicativas) El procedimiento de prueba aplicado puede explicarse mejor con la ayuda de la siguiente figura 1, la cual muestra que los límites de d son 0 y 4. Estos pueden establecerse expandiendo la siguiente ecuación, para obtener

d = (Σu2j + Σu2

t-1- 2Σ utu t-1) / Σu2t

Puesto que Σu2

t y Σu2t-1 difieren solo en una observación, estos son

aproximadamente iguales. Por consiguiente, haciendo Σu2t-1 = Σu2

t puede escribirse como

d ≅ 2[1 – (Σutut-1/ Σu2t)]

Donde ≅ significa aproximadamente. Se define ahora

Page 6: Auto Corre Laci On

6

ρρρρ = (Σutut-1) / (Σu2t)

como el coeficiente de autocorrelación muestral de primer orden, un estimador de , ρρρρ es posible expresar como

d ≅ 2 (1 – p)

pero puesto que – 1 ≤ p ≤ 1, implica que, 0 ≤ d ≤ 4 Estos son los límites de d; cualquier valor d estimado debe caer dentro de estos límites. Cuadro 1.

Nota : Ho: No autocorrelación positiva Ha: No autocorrelación negativa

Es deducible de la ecuación sí p = 0, d = 2; es decir, si no hay correlación serial (de primer orden), se espera que d este alrededor de 2. Por consiguiente, como regla práctica, si en una aplicación se encuentra que d es igual a 2, se puede suponer que no hay autocorrelación de primer orden, bien sea positiva o negativa. Si p = + 1, indica una correlación positiva perfecta en los residuales, d ≅ 0. Por consiguiente, entre más cercano este d a 0, mayor será la evidencia de correlación serial positiva. Esta relación debe ser evidente de ya que si hay autocorrelación positiva, las µt aparecerán agrupadas y sus diferencias, por consiguiente, tenderán a ser pequeñas. Como resultado, la suma de cuadrados

Page 7: Auto Corre Laci On

7

del numerador será menor en comparación con la suma de cuadrados del denominador, el cual es un valor que permanece fijo para cualquier regresión dada. Si p = p - 1 es decir, hay una correlación negativa perfecta entre los valores consecutivos de los residuales, d ≅ 4. Por tanto, entre mas se acerque d a 4, mayor será la evidencia de correlación serial negativa. Nuevamente, al analizar esto es entendible. Pues, si hay autocorrelación negativa, µt , positiva tendera a estar seguida por µt, negativo y viceversa, de tal forma que µt – µt-1será usualmente mayor que µt. Por consiguiente, el numerador de d será comparativamente mayor que el denominador. El mecanismo de la prueba de Durbin - Watson es el siguiente, suponiendo que se cumplen los supuestos sobre los cuales se basa la prueba:

1. Efectuar la regresión con mínimos cuadrados y obtener los residuales. 2. Calcular d a partir de la ecuación d = (Σ ut – u t-1)

2 / Σ u2t . La mayoría de

los programas de computador incluyen este cálculo. 3. Para un tamaño de muestra dado y un número de variables explicativas dado, encuéntrense los valores críticos dL y dU 4. Síganse ahora las reglas de decisión dadas en la siguiente cuadro No. 1. Para facilitar su entendimiento, estas reglas se resumen en el cuadro 2.

Cuadro 2 Hipótesis nula No autocorrelación + No autocorrelación + No correlación - No correlación - No autocorrelación, + o -

Decisión Rechazar No tomar decisión Rechazar No tomar decisión No rechazar

Sí 0 < d < dL dL < d < dU 4- dL < d < 4 4 –dU < d < 4 – dL dU < d < 4 - dU

A pesar de ser muy popular, la prueba d tiene una gran desventaja: cuando cae en la zona de indecisión o región de ignorancia, no se puede concluir si la autocorrelación existe o no. Para resolver este problema, diversos autores han propuesto modificaciones a la prueba d de Durbin - Watson pero son un poco complicadas y están por fuera del alcance de estos apuntes.

Page 8: Auto Corre Laci On

8

3. MEDIDAS REMÉDIALES Puesto que en presencia de correlación serial los estimadores de mínimos cuadrados son ineficientes, es esencial buscar medidas remédiales. El remedio, sin embargo, depende del conocimiento que se tenga sobre la naturaleza de la interdependencia entre las perturbaciones. Se distinguen dos situaciones: cuando la estructura de autocorrelación es conocida y cuando no lo es.

a) Cuando la estructura de la autocorrelación es conocida4 Puesto que las perturbaciones µi no son observables, la naturaleza de la correlación serial es frecuentemente un asunto de especulación o de exigencias practicas. En la practica, usualmente se supone que las µi siguen el esquema autorregresivo de primer orden, a saber,

µt = ρµt-1 + εt donde I p I < 1 y donde las εt siguen los supuestos mínimos cuadrados de valor esperado cero, varianza constante y no autocorrelación. Si se supone la validez de la anterior ecuación, el problema de correlación serial puede ser resuelto satisfactoriamente si se conoce p, el coeficiente de autocorrelación. Para esto se tiene en cuenta el modelo con dos variables,

Yt = α + βxt + µt

Si es cierta en el tiempo t, también es cierta en t-1, por tanto,

Yt-1 = α + βxt-1 + µt-1 Multiplicando por p a ambos lados, se obtiene

pYt-1 = pα + pβX t-1 + pµt-1 Restando esta ecuación de la inicial se tiene

(Yt – pYt-1 = α (1 – p) +β Xt – pβX t-1 + (µt – pµt-1) = α (1 – p) + β (Xt – pXt-1) + εt

se puede expresar como

Y*t = α* + β*X*t + εt Donde α* = α (1 – p), Y*t = (Yt – pYt-1) y X*t = (Xt – pXt-1).

4 El alcance de estos apuntes no contempla, cuando no es conocida es para cursos más avanzados.

Page 9: Auto Corre Laci On

9

Puesto que εt satisface todos los supuestos mínimos cuadrados, se puede proceder a aplicar mínimos cuadrados sobre las variables transformadas Y* y X* y obtener estimadores con todas las propiedades optimas, es decir, modelo de estimación lineal insesgado. En efecto, realizar la regresión es equivalente a utilizar los mínimos cuadrados generalizados, Pero obsérvese que la primera expresión (Y1, X1) es excluida. (¿Por que?). La regresión, se conoce por el nombre de ecuación en diferencia generalizada o -<<cuasi >> -. Esta consiste en regresar Y sobre X, no en la forma original, sino en forma de diferencia, lo cual se logra restando una proporción (= p) del valor de una variable en el periodo de tiempo anterior de su valor en el periodo de tiempo actual. En este procedimiento de diferenciación se pierde una observación, puesto que la primera observación no tiene precedente. Para evitar esta perdida de una observación, la primera observación sobre Y y X es transformada de la siguiente manera: Y1 √1– p2 y X1 √1– p2. Esta transformación es conocida como la transformación de Prais - Winsten. 4. RESUMEN Y CONCLUSIONES

1. Si se viola el supuesto del modelo clásico de regresión lineal de que los errores o las perturbaciones µi consideradas dentro del modelo de regresión poblacional son aleatorios o no correlaciónados, surge el problema de autocorrelación o de correlación serial.

2. La autocorrelación puede surgir por diversas razones, tales como la inercia o lentitud de las series de tiempo económicas, el sesgo de especificación resultante de excluir variables importantes del modelo o de utilizar la forma funcional incorrecta, el fenómeno de la telaraña, el manejo de los datos etc.

3. Aunque los estimadores mínimos cuadrados continúan siendo insesgados y consistentes en presencia de autocorrelación, estos dejan de ser eficientes. Como resultado, las pruebas de significancia t y F usuales no pueden aplicarse legítimamente. Por tanto, se hace necesaria la aplicación de medidas remediales. El remedio depende de la naturaleza de la interdependencia entre las perturbaciones µt. Pero como las µt, no son observables, la práctica común es suponer que estas han sido generadas por algún mecanismo.

4. El mecanismo comúnmente adoptado es el esquema autorregresivo de

primer orden de Markov, que supone que la perturbación en el periodo de tiempo actual esta linealmente relacionada con el término de perturbación en el periodo de tiempo anterior, la medida de interdependencia esta dada por el coeficiente de autocorrelación. Este mecanismo se conoce como el esquema AR(1).

Page 10: Auto Corre Laci On

10

5. Si el esquema AR(1) es valido y el coeficiente de autocorrelación se conoce, el problema de correlación serial puede atacarse fácilmente mediante la transformación de los datos siguiendo el procedimiento de diferencia generalizada. El esquema AR(1) puede generalizarse fácilmente a un esquema AR(p). También se puede suponer un mecanismo promedio móvil (MA) o una mezcla de los esquemas AR y MA, conocido como ARMA.

6. Aun si se utiliza un esquema AR(1), el coeficiente de autocorrelación p no se conoce a priori. Consideramos diversos métodos para estimar, tales como el d de Dulrbin - Waton, el d modificado de Theil-Nagar, el procedimiento de dos etapas de Cochrane - Orcutt (C-O), el procedimiento iterativo C - O y el método de dos etapas de Durbin. En muestras grandes, estos métodos generalmente producen estimaciones similares, aunque en muestras pequeñas, estos tienen un desempeño diferente. En la practica, el método iterativo C - O se ha vuelto bastante popular.

7. Claro esta, antes de remediar el problema de autocorrelación es preciso detectarlo. Hay diversos métodos de detección, de los cuales el mas conocido es el estadístico d de Durbin- Watson. Aunque son de uso corriente y aparecen en los impresos de la mayoría de los paquetes de sofware de computador, el estadístico d tiene diversas limitaciones. Muy frecuentemente, el estadístico d es indicador de la presencia de un sesgo de especificación, y no de autocorrelación pura.