Upload
sol-bigoni
View
57
Download
2
Embed Size (px)
DESCRIPTION
Prueba D-W y BPG. Econometría
Citation preview
DETECCIN DE LA AUTOCORRELACIN
PRUEBA DE DURBIN-WATSON
PRUEBA DE BREUSCH-GODFREY (BG)
INTEGRANTES:
WLADIMIR HEREDIA
CARLOS LPEZ
Prueba d de Durbin-Watson
El estadstico d de Durbin-Watson se define como:
= ( 1)
2==2
2=
=1
SUPUESTOS EN LOS CUALES SE BASA:
1. El modelo de regresin incluye el termino de intercepto.
2. Las variables X son no estocsticas.
3. Las perturbaciones se generan bajo el esquema autorregresivo de primer orden:
= 1 +
4. Distribucin normal del termino de error .
5. El modelo de regresin no incluye valor(es) rezagado(s) de la variable dependiente como una explicativa.
= 1 + 22 + 33 + + + 1 +
6. No hay observaciones faltantes en los datos.
No hay un valor crtico nico para rechazar o aceptar la Ho de que no hay correlacin serial de primer orden en la perturbaciones .
Se propone un limite inferior y un limite superior , cuando el valor cae por fuera de estos valores se puede decidir correlacin serial positiva o negativa.
Estos limites dependen del numero de observaciones n y del numero de variables explicativas, siendo los lmites de d 0 y 4.
Resolviendo la ecuacin del valor de d:
=
2 + 12 2 1
2
Como 2 y 1
2 difieren solo en una observacin, son aproximadamente iguales, entonces tenemos:
2(1 1
2 )
Definimos :
= 1
2
Reemplazando en la ecuacin anterior tenemos:
2(1 )
Sabemos que 1 1, esto implica que: 0 4.
Mecanismo para la prueba Durbin-Watson:
1. Correr la regresin por MCO y obtener sus residuos.
2. Calcular d.
3. Determinar los valores crticos y .
4. Reglas de decisin:
Ho: No hay autocorrelacin positiva.
Ho*: No hay autocorrelacin negativa.
Esta prueba tiene una gran desventaja, cuando cae en la zona de indecisin no se puede concluir si hay o no autocorrelacin.
En el caso de que el valor d estimado cae en la zona de indecisin, se propone la prueba d modificada:
Con el nivel de significancia ,
1. 0: = 0 frente a 1: > 0 si el valor estimado < rechace Ho. Correlacin positiva estadsticamente significativa.
2. 0: = 0 frente a 1: < 0 si el valor estimado (4 ) < rechace Ho. Autocorrelacin negativa estadsticamente significativa.
3. 0: = 0 frente a 1: 0 Rechace Ho en el nivel 2 si < o (4 ) < . Autocorrelacin positiva o negativa estadsticamente significativa.
Un estadstico d significativo no necesariamente indica autocorrelacin mas bien este puede indicar omisin de variables.
Si un modelo contiene valores rezagados de la regresada, el valor d a menudo se aproxima a 2 lo cual indicara que no hay autocorrelacin. (Prueba h)
Si los trminos del error no son NIID (normalmente distribuidos) esta prueba d no es tan confiable, sin embargo si la muestra es grande se puede utilizar esta prueba, por lo que se demuestra que:
(1 1
2) (0,1)
El estadstico d sigue una distribucin normal estandarizada, se deduce que:
(0,1)
Finalmente el problema mas grave de la prueba d es el supuesto de que las regresoras son no estocsticas(valores fijos en muestras repetidas), por lo tanto la prueba d no es valida en muestras finitas o pequeas y grandes.
Ejemplo:
Utilizamos 33 datos para un anlisis en el Ecuador se corre la siguiente regresin:
= 1 + 2 + 3 +
Donde:
= Logaritmo de las exportaciones con precios actuales de mercado.
= Logaritmo del PIB Real.
= Logaritmo del Tipo de Cambio Real.
Procedimiento:
1. Corremos la regresin y obtenemos sus residuos.
= 46,9428 + 2,7676 + 0,5368
2 = 0,692449
1 = 0,2345066
2. Calculamos d.
2(1 1
2 )
2(1 0,2345066
0,692449)
1,235963
3. Determinamos los valores crticos.
= 1,321 y = 1,577
4. Regla de Decisin:
Ho: No hay autocorrelacin positiva.
Ho*: No hay autocorrelacin negativa.
<
Conclusin:
Dado un nivel de significancia del 5%, existe evidencia estadstica suficiente para rechazar la Ho de que no existe autocorrelacin positiva, debido a que el d estimado es menor que el inferior.
Dependent Variable: LOG(X)
Method: Least Squares
Date: 04/07/14 Time: 21:19
Sample: 1980 2012
Included observations: 33 Variable Coefficient Std. Error t-Statistic Prob. LOG(Y) 2.767621 0.107001 25.86550 0.0000
LOG(TCR) 0.536795 0.108824 4.932679 0.0000
C -46.94278 2.851936 -16.45997 0.0000 R-squared 0.960321 Mean dependent var 22.48845
Adjusted R-squared 0.957676 S.D. dependent var 0.738483
S.E. of regression 0.151926 Akaike info criterion -0.844333
Sum squared resid 0.692449 Schwarz criterion -0.708287
Log likelihood 16.93150 Hannan-Quinn criter. -0.798558
F-statistic 363.0370 Durbin-Watson stat 1.209176
Prob(F-statistic) 0.000000
Prueba de Breusch-Godfrey (BG)
Generalidades
Es conocida tambien como prueba ML (se basa en el principio de multiplicador de Lagrange).
Es vlida asintticamente.
Evita algunas limitaciones que tiene la prueba de Durbin-Watson.
Caractersticas
Es una prueba ms general que la de Durbin-Watson ya que permite:
El uso regresoras no estocsticas.
Esquemas autorregresivos AR de orden mayor.
Esquemas MA (promedios mviles) de orden mayor de trminos de error con ruido blanco.
Ejemplo
Suponemos un modelo de 2 variables por simplicidad solamente.
= 1 + 2 + (1)
Supngase que sigue el siguiente esquema AR(p):
= 11 + 22 + + + (2)
Donde, es un trmino de error de ruido blanco
Ejemplo
La hiptesis nula 0 a ser probada es:
0 = 1 = 2 = = = 0
Es decir, no existe correlacin serial de ningn orden.
Pasos a seguir
1) Estmese (1) por MCO y obtngase
2) Hgase la siguiente regresin y obtenga su 2:
= 1 + 2 + 1 1 + 2 2 + + +
Con n observaciones debido a los rezagos.
Ntese que se introducen las regresoras originales( en este caso solo hay una). Se las introduce para permitir que las sean no estocsticas.
Pasos a seguir
3) Si el tamao de la muestra es grande, Breusch y Godfrey han demostrado que:
2~2
Con grados de libertad.
Si 2 > : Existe evidencia de autocorrelacin ya que al menos uno de los coeficientes es significativamente diferente de cero.
Puntos Prcticos sobre la Prueba BG
1) Los regresores incluidos en el modelo pueden ser valores rezagados de la variable dependiente: 1, 2, etc.
2) La prueba BG es aplicable an si el trmino de perturbacin sigue un proceso MA de orden p. Es decir que los tienen la forma:
= 11 + 22 + + +
Puntos Prcticos sobre la Prueba BG
3) Si = 1en la ecuacin (2) significando autocorrelacin de primer orden, entonces la prueba BG se conoce con el nombre de prueba M de Durbin.
4) Una desventaja de BG es que el valor de no puede especificarse a priori. Hay que experimentar y usar los criterios de informacin para encontrar la longitud del rezago.
Breusch-Godfrey Serial Correlation LM Test: F-statistic 4.128630 Prob. F(1,29) 0.0514
Obs*R-squared 4.112599 Prob. Chi-Square(1) 0.0426
Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 04/07/14 Time: 23:41
Sample: 1980 2012
Included observations: 33
Presample missing value lagged residuals set to zero. Variable Coefficient Std. Error t-Statistic Prob. LOG(Y) -0.030659 0.102935 -0.297851 0.7679
LOG(TCR) -0.061808 0.107933 -0.572647 0.5713
C 1.028482 2.760728 0.372540 0.7122
RESID(-1) 0.367989 0.181106 2.031903 0.0514 R-squared 0.124624 Mean dependent var 8.17E-15
Adjusted R-squared 0.034068 S.D. dependent var 0.147102
S.E. of regression 0.144575 Akaike info criterion -0.916829
Sum squared resid 0.606153 Schwarz criterion -0.735434
Log likelihood 19.12768 Hannan-Quinn criter. -0.855795
F-statistic 1.376210 Durbin-Watson stat 1.673150
Prob(F-statistic) 0.269696
El Ejercicio con STATA:
H0: no serial correlation 1 6.988 1 0.0082 lags(p) chi2 df Prob > chi2 Breusch-Godfrey LM test for autocorrelation
. estat bgodfrey
_cons -46.94277 2.851926 -16.46 0.000 -52.76718 -41.11836 lnTCR .536796 .108824 4.93 0.000 .3145479 .7590442 lnY 2.767621 .1070001 25.87 0.000 2.549098 2.986144 lnX Coef. Std. Err. t P>|t| [95% Conf. Interval]
Total 17.451419 32 .545356845 Root MSE = .15193 Adj R-squared = 0.9577 Residual .692444227 30 .023081474 R-squared = 0.9603 Model 16.7589748 2 8.37948741 Prob > F = 0.0000 F( 2, 30) = 363.04 Source SS df MS Number of obs = 33
. regress lnX lnY lnTCR
delta: 1 unit time variable: tiempo, 1980 to 2012. tsset tiempo
. rename var8 tiempo