Series de tiempo
Profesor: Andrés Ramírez HassanUniversidad EAFIT
21/07/2010 1Profesor: Andrés Ramírez Hassan
Series de tiempoEl objetivo de los modelos de pronóstico es reducir la
incertidumbre asociada a fenómenos desconocidos para el tomador de decisiones. Las decisiones adoptadas tienen como consecuencia diferentes implicaciones asociadas; finalmente el
objetivo es tomar la decisión que optimice la función de beneficios y/o pérdida.
21/07/2010 Profesor: Andrés Ramírez Hassan 2
y/o pérdida.
Para tales efectos se presentan una serie de técnicas que se pueden clasificar de la siguiente manera:
Series de tiempoMétodos de pronóstico
Métodos cualitativos
Brainstorming
Métodos cuantitativos
Análisis causal Análisis univariante
Delphi
Cross-impact
Modelos uniecuacionales
Modelos multiecuacionales
Descomposición
Cálculo de tendencia(Tendencia global)
Desestacionalización
Alisamiento exponencial
(Tendencia Local)ARIMA univariantes
21/07/2010 Profesor: Andrés Ramírez Hassan 3
),,,( ttttt isctfy
¿Cuándo se debe aplicar cada metodología?
Series de tiempoLas información muestral con la cual se elaboran los ejercicios de inferencia estadística puede ser de corte transversal, series de tiempo o datos de panel.
Definición (proceso estocástico): Sea un espacio de probabilidad, un vector aleatorio ),,(),,(:)( nn PBRPFwX
),,( PF
21/07/2010 Profesor: Andrés Ramírez Hassan 4
probabilidad, un vector aleatorio y un conjunto de índices enteros no negativos. Un proceso estocástico se define como , es decir, es una colección de variables aleatorias. Si t está fijo, entonces será una variable aleatoria, en tanto que si se fija w, será una función medible de t.Ejemplos: una sucesión de lanzamientos de una moneda, una secuencia de extracciones de cartas de una baraja, otros?.
),,(),,(:)( Xnt
nt PBRPFwX
Tt T
ttwX 1)(
0)( twX
twwX )(0
Series de tiempo
21/07/2010 Profesor: Andrés Ramírez Hassan 5
Veamos una como realizar un movimiento Browniano en Eviews.
Series de tiempoLas características de un proceso estocástico se pueden hacer bien sea a través de la función de distribución conjunta o a través de los momentos.Dado fijos, entonces sea la función de distribución conjunta, luego el proceso está perfectamente caracterizado por ésta, dado T finito. Pero en general este
Tttt ,...,, 10 Tttt XXXF ,...,,
10
21/07/2010 Profesor: Andrés Ramírez Hassan 6
caracterizado por ésta, dado T finito. Pero en general este procedimiento para caracterizar el proceso estocástico es complejo.Sea la media del vector aleatorio, y la matriz de covarianzas definida como .En lo siguiente se trabajará el caso particular n = 1, luego se tiene:
)( tt XE)))(((),(,
Tttssstts XXEXXCov
2/1,
,
))()((
),(
)))(((),(
ts
stts
ttssstts
XVarXVar
XXCov
XXEXXCov
Series de tiempoUna serie de tiempo es una realización específica de un proceso estocástico a través del tiempo, es decir, para cada t se obtiene una muestra aleatoria de tamaño uno.En ciencias sociales, el científico no controla el experimento, y además sólo tiene la posibilidad de contemplar una sola realización del fenómeno para t fijo, luego se deben imponer una
21/07/2010 Profesor: Andrés Ramírez Hassan 7
realización del fenómeno para t fijo, luego se deben imponer una serie de condiciones sobre el proceso estocástico para poder caracterizarlo.Definición (proceso estacionario estricto): Sea F función de distribución de probabilidad del proceso estocástico para T finito, entonces, el proceso se dice estacionario en sentido estricto si y sólo si . ),...,,(),...,,(
1010 mtmtmtttt TTXXXFXXXF
Series de tiempoDefinición (proceso estacionario débil): un proceso estocástico es débilmente estacionario si y sólo si:
kktt
t
t
XXE
tXE
tXE
)))((()3
)()2
)()122
21/07/2010 Profesor: Andrés Ramírez Hassan 8
Definición (proceso estocástico ergódico): Sea un proceso estocástico, éste se dice ergódico si para dos funciones acotadas f y g, tal que, se cumple,
Coloquialmente, cada observación tiene información única.
T
ttwX 1)(
RRgyRRf mn ::
),...,,(),...,,((
),...,,(),...,,((
11
11
kmtktktnttt
kmtktktntttk
XXXEgXXXfE
XXXgXXXfELim
Series de tiempoUna condición necesaria para que se cumpla el supuesto de ergodicidad es que .
Bajo estas condiciones, es decir, estacionariedad y ergodicidad, el teorema de ergodicidad establece que .
0k
kLim
..ˆ sa
21/07/2010 Profesor: Andrés Ramírez Hassan 9
Tarea:Definición de convergencia en distribución, convergencia en probabilidad, convergencia en media cuadrática y convergencia casi segura.
Series de tiempo¿Porqué estudiar los procesos lineales?La respuesta está en el teorema de descomposición de Wold (1938).Teorema (Descomposición de Wold): Todo proceso estocástico débilmente estacionario puede ser representado en la siguiente forma:
1* ),...,( itiptttt XXXEX
21/07/2010 Profesor: Andrés Ramírez Hassan 10
Donde es ruido blanco ???, y .
Además, es el predictor lineal óptimo, el cual no está correlacionada con el ruido rezagado. Tarea: Leer el apéndice uno y dos de Uriel y Peiro o capítulo uno de Enders. Para aplicaciones económicas capítulos 16 y 17 de Chiang.
0
1 ),...,(i
itiptttt XXXEX
t 10
0
2
ii
),...,( 1*
pttt XXXE
Series de tiempoModelos Lineales
Modelo Autorregresivo (AR)
•AR(1)
Utilizando el operador de rezagos
Donde
ttt eYY 11
tt eYL )1( 1
21/07/2010 Profesor: Andrés Ramírez Hassan 11
Donde
Se asumirá que el proceso inicia en - y es estacionario.
tt1
,...2,10),(
1
),0(~ 2
keYCov
e
tkt
et
Series de tiempoModelos Lineales
Modelo Autorregresivo (AR)
•AR(1)
1)(
0)(
2
2
0
YVar
YE
et
t
21/07/2010 Profesor: Andrés Ramírez Hassan 12
Simular: Un modelo AR(1) se puede expresar como un MA().
¿Qué pasa si el proceso es de la forma ?
,..2,1,
),(
1)(
1
11
21
0
k
YYCov
YVar
kk
kkktt
t
ttt eYcY 11
tttttt eYYeYY 11 8.0,8.0
Series de tiempo•AR(2)
tt
tttt
eYLL
eYYY
)1( 221
2211
,...2,1,),(
)(
0)(2
22110
kYYCov
YVar
YE
et
t
21/07/2010 Profesor: Andrés Ramírez Hassan 13
,...2,1,
,...2,1,),(
2211
2211
k
kYYCov
kkk
kkktt
Series de tiempo•AR(2)Ecuaciones Yule-Walker
Simular
2
1
1
1
1
2
1
1
1
21/07/2010 Profesor: Andrés Ramírez Hassan 14
Simular
tttt
tttt
tttt
tttt
eYYY
eYYY
eYYY
eYYY
21
21
21
21
9.05.1
9.05.1
5.04.0
5.04.0
Series de tiempo•AR(p)
Se requiere que las raíces de la anterior expresión caigan fuera del
0...1)(
)(
...
221
2211
pp
tt
tptpttt
LLLL
eYL
eYYYY
21/07/2010 Profesor: Andrés Ramírez Hassan 15
Se requiere que las raíces de la anterior expresión caigan fuera del circulo unitario para que el proceso sea estacionario.
Tomando los rho’s iniciales como condiciones iniciales determinadas a partir de los coeficientes phi’s, la solución de la anterior expresión permite calcular los valores de los rho’s para kmayores o iguales a p.
,...2,1,...2211 kpkpkkk
Series de tiempo•AR(p)Particularizando la ecuación en diferencias para las correlaciones en k= 1, 2,…, p, se obtiene el sistema de ecuaciones de Yule-Walker, donde:
p
p
...1
...1
2
1
1
21
11
2
1
21/07/2010 Profesor: Andrés Ramírez Hassan 16
Además se puede pasar de un proceso AR(p) a un MA( )
ppp
p
p
.
.
.
1..
.
.
.
.
.
.
.
.
.
.
.
.
.
.2
21
212
tt eL
Y)(
1
Series de tiempo•MA(1) invertible
0),(
,1
),0(~
)1(
'
1
2
111
tt
et
tttt
eeCov
invertible
e
eLeeY
)1( 222
21/07/2010 Profesor: Andrés Ramírez Hassan 17
¿Cuál es el máximo valor que toma rho?Dado que el proceso sea invertible, este se puede expresar como un AR().
Simular
1
1
8.0
8.0
ttt
ttt
eeY
eeY
10
1,1
)1(
21
1
21
22
k
kk
Series de tiempo•MA(2) invertible
0),(
),0(~
)1(
'
2
2212211
tt
et
ttttt
eeCov
e
eLLeeeY
)1( 22
21
22
21/07/2010 Profesor: Andrés Ramírez Hassan 18
2,0
2,1
1,1
22
21
2
22
21
211
k
k
k
k
Series de tiempo•MA(2) invertible
Simular
21
21
21
9.05.1
5.04.0
5.04.0
tttt
tttt
tttt
eeeY
eeeY
eeeY
21/07/2010 Profesor: Andrés Ramírez Hassan 19
21 9.05.1 tttt eeeY
Series de tiempo•MA(q) invertible
,...1,0
,...,2,1,)...(
0,...1
...
211
2221
2211
qk
qk
k
eeeeY
eqkqkk
eq
k
qtqtttt
21/07/2010 Profesor: Andrés Ramírez Hassan 20
Para que sea invertible se requiere que las raíces de la siguiente expresión caigan fuera del circulo unitario.
,...1,0 qk
0...1 221 q
qLLL
,...1,0
,...,2,1,...1
)...(22
1
11
qk
qkq
qkqkk
k
Series de tiempo•ARMA(1,1)
Simular
,...3,2,
1,21
))(1(
11
2111
1111
1111
k
k
eeYY
k
k
tttt
21/07/2010 Profesor: Andrés Ramírez Hassan 21
Simular
11
11
11
11
3.09.0
5.08.0
8.08.0
5.05.0
tttt
tttt
tttt
tttt
eeYY
eeYY
eeYY
eeYY
Series de tiempo•ARMA(p, q)
Para que el modelo sea estacionario se requiere que las raíces de la ecuación polinomial se encuentren fuera del circulo unitario. Igualmente para que el modelo sea invertible se requiere que las raíces de la ecuación polinomial caigan fuera del circulo unitario. Si se cumplen las condiciones de estacionariedad
tt
qtqttptptt
eLYL
eeeYYY
)()(
...... 1111
)(L
)(L
21/07/2010 Profesor: Andrés Ramírez Hassan 22
circulo unitario. Si se cumplen las condiciones de estacionariedad e invertibilidad, el modelo se puede expresar como un MA() o un AR(), respectivamente. En este caso se tiene quePara determinar los primeros q valores de rho interviene la parte de medias móviles del modelo. Además es conveniente factorizar la parte AR y la parte MA para verificar la presencia de raíces repetidas y no sobre parametrizar el modelo.
qkpkpkk ,0...11
Series de tiempoUno de los supuestos trascendentales es que el procesoestocástico en consideración es estacionario, lo cual algunas vecesno se cumple con las series económicas, luego se debe recurrir aciertas transformaciones para volver la serie en consideraciónestacionaria. Se deben realizar transformaciones bien sea paravolver constante la media o volver constante la varianza.Normalmente la diferenciación de la serie vuelve la serieestacionaria en media y transformaciones tipo Box-Cox vuelven la
21/07/2010 Profesor: Andrés Ramírez Hassan 23
estacionaria en media y transformaciones tipo Box-Cox vuelven laserie estacionaria en varianza. Específicamente, si se debenrealizar d diferenciaciones de la serie para que ésta seaestacionaria se tieneDonde w es estacionaria en media.
td
td
t YLYw )1(
Series de tiempoLa transformación Box-Cox para volver las series estacionarias envarianza está determinada por la siguiente función:
La diferenciación genera los denominados modelos ARIMA(p,d,q).
0,ln
0,1
t
t
t
Y
YY
21/07/2010 Profesor: Andrés Ramírez Hassan 24
Tarea: analizar los momentos del random walky el tratamiento como expansiones de series de Taylor alrededorde la diferencia logarítmica neperiana. Además realizar todos losejercicios del capítulo 3 de Uriel y Peiro.
ttd eLYLL )()1)(( )(
ttt eYY 1
Series de tiempoElaboración de modelos ARIMA
Mecanismos de generación de una serie temporalProceso estocástico
),0(
)()()1)((2
)(
INe
eLYLL
e
tqtd
p
Generación
21/07/2010 Profesor: Andrés Ramírez Hassan 25
Realización
Generación
Tyyy ,...,, 21
Series de tiempoElaboración de modelos ARIMA
Mecanismos de generación de una serie temporalProceso estocástico
),0(
)()()1)((2
)(
INe
eLYLL
e
tqtd
p
21/07/2010 Profesor: Andrés Ramírez Hassan 26
Realización
Inferencia
Tyyy ,...,, 21
Series de tiempoElaboración de modelos ARIMA
21/07/2010 Profesor: Andrés Ramírez Hassan 27
Series de tiempoIdentificación de procesos
•Función de Auto Correlación Estimada (FACE)•Función de Auto Correlación Parcial Estimada (FACPE)
N
N
ktktt
k
wwwwr 1
))((
21/07/2010 Profesor: Andrés Ramírez Hassan 28
La secuencia de r constituye el FACE (Correlograma) donde no serecomienda estimar auto correlaciones superiores a un tercio deltamaño de la muestra debido a la pérdida de eficiencia.Bajo la hipótesis nula , se distribuye asintóticamente normalcon media cero, varianza y covarianzas dadas por las siguientesexpresiones:
N
tt
k
wwr
1
2)(
0k kr
Series de tiempoIdentificación de procesos
Para los procesos MA(q), se sabe que para k > q, los coeficientes deautocorrelación teóricos son iguales a cero, luego las sumatoriasexpuestas arriba son finitas. Además en un proceso MA(q), se
)222(1
)(
)24(1
)(
2
222
skkkskskskksksskk
kkkkkk
NrrCov
NrVar
21/07/2010 Profesor: Andrés Ramírez Hassan 29
expuestas arriba son finitas. Además en un proceso MA(q), sepuede prescindir de todos los términos de arriba, excepto delprimero. Luego para un proceso MA(q) se tienen las siguientesaproximaciones:
q
qsskk
q
qk
NrrCov
NrVar
1)(
1)( 2
Series de tiempoIdentificación de procesosLa aproximación empírica a la varianza está dada por la siguienteexpresión:
Tarea: Bajo este marco ¿Cuál es el intervalo de confianzaasintótico con nivel de confianza asintótico del 95% para el
1,211
1,)( 1
1
2
1
krN
kNrVar k
k
21/07/2010 Profesor: Andrés Ramírez Hassan 30
asintótico con nivel de confianza asintótico del 95% para elcoeficiente de correlación muestral?
La anterior expresión y los correspondientes intervalos de confianzason de gran utilidad para realizar pruebas de hipótesis al respectode la significancia de los coeficientes de autocorrelación. Sinembargo Box-Ljung propusieron una expresión que se acomodamejor a muestras finitas
Series de tiempoIdentificación de procesos
m(=raiz cuadrada(N)) es el retardo máximo a incluir.
Esta prueba sirve para contrastar la hipótesis nula de que todos loscoeficientes de correlación hasta de orden k son iguales a cero. El
m
kk kNrNNQ
1
2 )/()2(
21/07/2010 Profesor: Andrés Ramírez Hassan 31
coeficientes de correlación hasta de orden k son iguales a cero. Elestadístico de prueba se distribuye Chi cuadrado(m).
Tomar en consideración que la FACE es de gran ayuda paraencontrar el orden del proceso MA(q).
Series de tiempoIdentificación de procesosEn un proceso AR(1), y están relacionados pese a que esteúltimo no aparezca en la ecuación, específicamente el efecto se daa través de . Esto igualmente ocurre en cualquier proceso AR(p)por la interacción entre y a través de efectos indirectos. Laidea de la Función de Auto Correlación Parcial Teórica (FACPT) esencontrar el efecto directo de sobre .
tY 2tY
tY ktY
1tY
ktY tY
21/07/2010 Profesor: Andrés Ramírez Hassan 32
La construcción de la FACPT se fundamenta en las ecuaciones deYule-Walker.
Series de tiempoIdentificación de procesos
p
p
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....1
...1
.
.
.2
1
1
21
11
2
1
21/07/2010 Profesor: Andrés Ramírez Hassan 33
Específicamente,
pppp .
1......
21
21
212
22
111
1
Series de tiempoIdentificación de procesos
En general,
(*)1
1
,1
1
1,1
k
jjk
k
jjkjkk
kk
21/07/2010 Profesor: Andrés Ramírez Hassan 34
Donde
Para un proceso AR(p) no hay relación directa entre y para k> p. Luego todos los valores de para k > p serán iguales a cero.
Tarea: ¿Qué pasa con la FACPT del proceso MA(1)?
11
,1
j
jjk
1,...,2,1,,1,1 kjjkkkkjkkj
tY ktY
kk
Series de tiempoIdentificación de procesosEn forma alternativa si se resuelve sucesivamente para AR(1),AR(2), … se obtienen los siguientes coeficientes:
333231
2221
11
)3(
)2(
)1(
AR
AR
AR
21/07/2010 Profesor: Andrés Ramírez Hassan 35
1,1,13,12,11,1
321
333231
...)1(
...)(
.
.
.
)3(
ppppppp
ppppp
pAR
pAR
AR
Series de tiempoIdentificación de procesosSi se toman los últimos coeficientes para cada AR se obtiene laFACP Teórica.En un proceso ARMA(p, q) se tendrán infinitos valores diferentesde cero tanto en FACT como en la FACPT. Tarea: ¿Por qué?
Hay tres métodos equivalentes para obtener el FACPE:
21/07/2010 Profesor: Andrés Ramírez Hassan 36
1) Se obtiene reemplazando en el sistema de ecuaciones Yule-Walker los coeficientes de autocorrelación teóricos por loscoeficientes estimados.
2) Se obtienen de forma recursiva a través de (*)
Series de tiempoIdentificación de procesos3) A partir de las siguientes regresiones
tttt
ttt
ewww
eww
.
.222121
111
21/07/2010 Profesor: Andrés Ramírez Hassan 37
En un proceso AR(p), los coeficientes de autocorrelación parcial sedistribuyen aproximadamente como una normal con media 0 yvarianza
tktkktktkt ewwww ...
.
.
2211
pkN
Var kk ,1
)ˆ(
Series de tiempoIdentificación de procesos
Calcular FACT, FACE, FAPCT y FAPCE de los siguientes procesos:
11
21
21
5.08.0
5.04.0
5.04.0
tttt
tttt
tttt
eeww
eeew
ewww
21/07/2010 Profesor: Andrés Ramírez Hassan 38
11 5.08.0 tttt eeww
Series de tiempoIdentificación de procesosSe debe tener presente el efecto del tamaño de la muestra para laidentificación del p.g.d. Algunos autores consideran que untamaño de muestra reducido es inferior a 50 observaciones.Veamos el siguiente ejercicio de simulación para determinar elimpacto del tamaño de la muestra en la identificación delprocesos:
21/07/2010 Profesor: Andrés Ramírez Hassan 39
Comparar FACT v.s. FACE y FACPT v.s. FACPE1000
100
30
6.0 1
T
T
T
eww ttt
Series de tiempoIdentificación de procesosFACT y FACPT en modelo AR(p), MA(q) y ARMA(p,q)
21/07/2010 Profesor: Andrés Ramírez Hassan 40
Series de tiempoAnálisis de estacionariedadLas series que entran en los modelos ARIMA deben serestacionarias, por consiguiente generalmente se deben realizardos tipos de transformaciones:1) La toma de diferencias de primer orden d veces2) La transformación Box-CoxPara la determinación de d, se utilizan tres herramientas:• El análisis gráfico
21/07/2010 Profesor: Andrés Ramírez Hassan 41
• El análisis gráfico• Función de Auto Correlación Estimada (FACE)• Pruebas de raíces unitarias (Estocástica-Determinística)
• Dickey-Fuller Aumentado• Dickey-Fuller con Mínimos Cuadrados Generalizados sin
tendencia (Tarea)• Phillips-Perron (Tarea)• Kwiatkowski, Phillips, Schmidt y Shin (KPSS) (Tarea)• Ng y Perron (Tarea)
Series de tiempoAnálisis de estacionariedad
Dickey-Fuller Aumentado
La prueba se evalúa con el ratio t convencional, es decir:0...0. 10
1
1120
HsvH
eYYtaaY t
p
iititt
21/07/2010 Profesor: Andrés Ramírez Hassan 42
La prueba se evalúa con el ratio t convencional, es decir:
El cual no sigue la distribución t-student estándar bajo la hipótesisnula. MacKinnon (1991, 1996) tabuló a través de simulaciones losvalores críticos de la prueba a diferentes niveles de significancia.
))ˆ(/(ˆ StDesvt
Series de tiempoProcedimiento para corroborar raíces unitarias
21/07/2010 Profesor: Andrés Ramírez Hassan 43
Series de tiempoAnálisis de estacionariedad
Realizar simulación:
ttt
ttt
ttt
eYtaaY
eYaY
eYY
110
10
1
21/07/2010 Profesor: Andrés Ramírez Hassan 44
Veamos la potencia de las pruebas estudiadas, es decir, ¿Qué pasacuando el parámetro autorregresivo es cercano a uno en valorabsoluto?
Ahora,Tarea: ¿Cuáles son las consecuencias de una sobrediferenciación?
ttt eYtaaY 110
Series de tiempoAnálisis de estacionariedad
Tratamiento de la no estacionariedad en varianza
• Análisis gráfico de la serie• Gráfico rango-media
21/07/2010 Profesor: Andrés Ramírez Hassan 45
),(ln
)exp(2
10
10
et
tt
tNY
etY
)5.0exp()exp()(
)5.0exp()(2
102
10
210
eet
et
t
ttYVar
tYE
NormalLogY
Series de tiempoAnálisis de estacionariedad
Tratamiento de la no estacionariedad en varianza
Se utiliza el rango como medida de dispersión dado su sencillez.
)()1)5.0)(exp(()( 2tett YkEYEYVar
21/07/2010 Profesor: Andrés Ramírez Hassan 46
Se utiliza el rango como medida de dispersión dado su sencillez.
Para el gráfico en cuestión se divide la serie en intervalos y secalcula la media y el rango asociado a estos. Si hay una tendenciaen el scatter plot hay evidencia que la serie no es estacionaria envarianza.Tarea:¿Cómo es el tratamiento de un proceso con media no nula?Realizar los ejercicios del capítulo 4 de Uriel y Peiro
Series de tiempoEstimación por Máxima Verosimilitud (Hamilton, capítulo 5)IntroducciónConsidere un modelo ARMA(p, q):
El problema que surge es como estimar los parámetros quesubyacen este modelo, una vez identificado el probable procesogenerador de datos.
qtqttptptt eeeYYcY ...... 1111
21/07/2010 Profesor: Andrés Ramírez Hassan 47
generador de datos.SeaAdemás suponga que se han conservado T observaciones una veztransformado el modelo para que la serie en cuestión seaestacionaria.El procedimiento será calcular la función de densidad conjunta,
)',,...,,,...,,( 211 qpc
):,...,( 1,..., 1yyf tYYT
Series de tiempoEstimación por Máxima VerosimilitudIntroducciónEl MLE de Ѳ será el valor que maximice la función deverosimilitud.Este procedimiento requiere especificar una función dedistribución para el proceso ruido blanco. Normalmente se asumeque este se distribuye Gaussiano, ),0(... 2Ndiiet
21/07/2010 Profesor: Andrés Ramírez Hassan 48
Pese a que este supuesto es fuerte, la estimación de Ѳ esconsistente aunque el proceso para el ruido no sea Gaussiano,pero se debe especificar correctamente la media del proceso. Elanterior procedimiento se denomina QMLE. Además, los erroresestándar estimados deben ser corregidos White (1982).
t
Series de tiempoEstimación por Máxima VerosimilitudProceso AR(1) (Máxima verosimilitud exacta)
Dada la representación MA() de este proceso se tiene que esGaussiana.Bajo este contexto,
ttt eYcY 11
tY
21/07/2010 Profesor: Andrés Ramírez Hassan 49
Ahora considere la distribución de condicionado a que ,
)1/(2
))1/((
)1/(2
1),,:(
21
2
211
21
2
2111
cy
ExpcyfY
2Y 11 yY
2
2112
2
2112 2
))
2
1),,:(
12
ycy
Expcyyf YY
Series de tiempoEstimación por Máxima VerosimilitudProceso AR(1) (Máxima verosimilitud exacta)
Luego la distribución conjunta de las observaciones 1 y 2 es
Tomando en consideración que los valores de importanpara sólo a través de . La función de densidad para la
),,:(),,:(),,:,( 2112
211
2112, 12112
cyyfcyfcyyf YYYYY
11,..., tYY
21/07/2010 Profesor: Andrés Ramírez Hassan 50
para sólo a través de . La función de densidad para laobservación t condicionada a las observaciones precedentes estádada por:
tY 1tY
2
211
2
211
2111,...,
2
))
2
1
),,:(),,:,...,(111
tt
ttYYttYYY
ycyExp
cyyfcyyyftttt
Series de tiempoEstimación por Máxima VerosimilitudProceso AR(1) (Máxima verosimilitud exacta)
Así,
Entonces,
T
tttYYYTTYYY yyfyfyyyf
ttTT2
1111,...,, ):():():,...,,(1111
21/07/2010 Profesor: Andrés Ramírez Hassan 51
Encontrar el MLE para Ѳ requiere la utilización de métodosnuméricos. Entonces surge la alternativas de MLE condicionado,bajo este contexto la observación inicial se trata como uncomponente determinístico y el procedimiento de MV sedesarrolla condicionado a esta primera observación.
T
ittYYY yyfyfL
tt2
11 )):(log():(log)(11
Series de tiempoEstimación por Máxima VerosimilitudProceso AR(1) (Máxima verosimilitud condicionada)
Si el tamaño de la muestra es grande, omitir la primeraobservación no ocasiona problemas significativos en el proceso deestimación.
T
t yyfL 1 )):(log()(
21/07/2010 Profesor: Andrés Ramírez Hassan 52
Este procedimiento conlleva a los resultados estándar de MCO.Los resultados obtenidos por el enfoque exacto y el enfoquecondicional llevan a los mismos resultados si el tamaño de lamuestra es grande y el proceso es estacionario. Si el proceso es noestacionario, el enfoque exacto implica que el estimador de Ѳ esinconsistente (Porqué?), mientras que el foque condicional generaresultados consistentes.
i
tYY yyfLt
21 )):(log()(
1
Series de tiempoEstimación por Máxima VerosimilitudProceso AR(p) (Máxima verosimilitud exacta)
Sea el vector de las primeras p observaciones de las variables,y el vector de las medias .
Cada elemento del vector de medias está dado por:
Además, la matriz de covarianzas entre las primeras p
),...,( 1 pp yyy ),...,( p
)...1/( 1 pc
21/07/2010 Profesor: Andrés Ramírez Hassan 53
Además, la matriz de covarianzas entre las primeras pobservaciones será:
)...1/( 1 pc
021
201
110
2
...
.....
.
.
....
...
pp
p
p
pV
Series de tiempoEstimación por Máxima VerosimilitudProceso AR(p) (Máxima verosimilitud exacta)
Así, la f.d.p conjunta para las primeras p observaciones será:
2
1
11
2
)()'(
2/12/211,...,,)2(
1):,...,,(
pp
pp
yVy
pppYYY ExpV
yyyf
21/07/2010 Profesor: Andrés Ramírez Hassan 54
Para el resto de las observaciones se tendrá,
)2( V
2
211
2
1,...,11,...,
2
))....
2
1
):,...,():,...,(111
ptptt
ptttYYYttYYY
yycyExp
yyyfyyyfpttttt
Series de tiempoEstimación por Máxima VerosimilitudProceso AR(p) (Máxima verosimilitud exacta)
Luego, la f.d.p conjunta para toda la muestra será:
T
ptttYYYppYYY
TTYYY
yyyfyyyf
yyyfTT
1,...,11,...,,
11,...,,
):,...,():,...,,(
):,...,,(11
21/07/2010 Profesor: Andrés Ramírez Hassan 55
Luego,
ptptttYYYppYYY yyyfyyyf
ptttpp1
1,...,11,...,, ):,...,():,...,,(111
T
pt
ptptt
ppppp
p
yycy
yVy
VTTL
12
211
1´2
1´2
2
))....
)()'(2/1
log2/1)log(2/)2log(2/)(
Series de tiempoEstimación por Máxima VerosimilitudProceso AR(p) (Máxima verosimilitud condicionada)
Nuevamente, el ejercicio de MV condicionado a las primeras pobservaciones, se reduce a estimación por OLS.
Tarea: verificar anterior afirmación.
21/07/2010 Profesor: Andrés Ramírez Hassan 56
Veamos ahora un ejercicio de MV de un AR(1).
Tarea para entregar: Programar un ejercicio de MV para unAR(2).
Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Máxima verosimilitud condicionada)
Si el valor de la perturbación es conocido con antelación entonces,
11 ttt eeY
2
211
21 22
1):(
1
tt
tteY
eyExpeyf
tt
21/07/2010 Profesor: Andrés Ramírez Hassan 57
Suponga que se sabe con certeza que , luegoDado el valor de entonces es conocido. De esta forma,
22
00 e ),(0 201 NeY
1y 1e
2
2112
20120, 22
1):0,(
012
eyExpeyyf eYY
Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Máxima verosimilitud condicionada)
Dado que es conocido, entonces puede ser calculado.
Operando recursivamente se encuentra que dado , se puedeobtener la secuencia completa de las perturbaciones estocásticasa través de las observaciones de la serie, es decir:
1e 2e
00 e
21/07/2010 Profesor: Andrés Ramírez Hassan 58
a través de las observaciones de la serie, es decir:
Luego se tiene que
11 ttt eye
2
2
2
10110,,...,
22
1
):():0,,...,(1011
t
tteYtteYYY
eExp
eyfeyyyftttt
Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Máxima verosimilitud condicionada)De esta forma, la f.d.p. conjunta será:
T
ttteYYYeY
TTeYYY
eyyyfeyf
eyyyf
tt
TT
20110,,...,010
0110,...,,
):0,,...,():0(
):0,...,,(
01101
011
21/07/2010 Profesor: Andrés Ramírez Hassan 59
Luego, el logaritmo de la función de verosimilitud será:
Aunque esta función es fácil de programar, el logaritmo de lafunción de verosimilitud implica un función no lineal de losparámetros bastante compleja. Si imponer no entrañamayor problema; en caso contrario este procedimiento no essensato.
T
t
teTTL
12
22
2)log(2/)2log(2/)(
11 00 e
Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Función de verosimilitud exacta)
Sea el vector de las primeras p observaciones de las variables,y el vector de las medias .
La matriz de varianzas y covarianzas está dada por:
Específicamente para un MA(1) se tiene:
),...,( 1 TT yyy
),...,( T
)')(( YYE
21/07/2010 Profesor: Andrés Ramírez Hassan 60
Específicamente para un MA(1) se tiene:
)1(...00
.....
.
.
.0...)1(
0...)1(
21
21
21
2
Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Función de verosimilitud exacta)
La función de verosimilitud será:
La matriz puede ser descompuesta de la siguiente manera:
2
)()'()2():(
12/12/ yyExpyf T
Y
21/07/2010 Profesor: Andrés Ramírez Hassan 61
La matriz puede ser descompuesta de la siguiente manera:'ADA
Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Función de verosimilitud exacta)
Donde
001
1
0001
21
1
21/07/2010 Profesor: Andrés Ramírez Hassan 62
1...1
)...1(00
0...1
)1(0
1
)1(21
21
)2(21
211
41
21
211
1
n
n
A
Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Función de verosimilitud exacta)
Donde
41
21
21
001
0
0001
21/07/2010 Profesor: Andrés Ramírez Hassan 63
)1(21
21
21
21
21
11
2
...1
...1000
0...00
001
10
n
n
D
Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Función de verosimilitud exacta)
Reemplazando y tomando en consideración que el determinantede A es uno, la función de verosimilitud será:
2
~'~)2():(
12/12/ yDyExpDyf T
Y
21/07/2010 Profesor: Andrés Ramírez Hassan 64
Donde
2
)1(21
21
21
2122
1)1(21
21
)2(21
211
1
...1...1
)~(
,...2,~)...1(
)...1(
1,
)(~
t
t
ttt
tt
t
t
t
YEd
tyy
ty
yAy
Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Función de verosimilitud exacta)
El logaritmo de la función de verosimilitud será:
T
t tt
tT
ttt d
ydTL
1
2
1
~2/1)log(2/1)2log(2/)(
21/07/2010 Profesor: Andrés Ramírez Hassan 65
Series de tiempoEstimación por Máxima VerosimilitudProceso MA(q) (Función de verosimilitud condicional)
Asumiendo,
Entonces,
qtqttt eeeY ...11
0... 110 qeee
21/07/2010 Profesor: Andrés Ramírez Hassan 66
Entonces,
Esta expresión es útil para procesos invertibles.
T
t
t
TYY
eTT
yyfLT
12
22
010,...,
2/1)log(2/)2log(2/
):0,...,(log)(01
Series de tiempoEstimación por Máxima VerosimilitudProceso MA(q) (Función de verosimilitud exacta)
Donde
2
)()'()2():(
12/12/ yyExpyf T
Y
0.....00
21/07/2010 Profesor: Andrés Ramírez Hassan 67
qk
qkkqqkkkk
q
q
,0
,...,1,0,...(
......0
..
.....
..
.....
..
.....
22112
1
0
1
Series de tiempoEstimación por Máxima VerosimilitudProceso MA(q) (Función de verosimilitud exacta)
Utilizando nuevamente la representación:Donde, las definiciones de A y D se pueden encontrar en lasección 4.4. del texto de Hamilton (Time Series Analysis, 1994).Específicamente las expresiones 4.4.11 y 4.4.7, respectivamente.
'ADA
21/07/2010 Profesor: Andrés Ramírez Hassan 68
Luego, se tienen las siguientes expresiones:
Series de tiempoEstimación por Máxima VerosimilitudProceso MA(q) (Función de verosimilitud exacta)
....
....
....
01
01
0......001
3231
21
aa
a
A
21/07/2010 Profesor: Andrés Ramírez Hassan 69
La función de verosimilitud estará dada por:
T
t tt
tT
ttt d
ydTL
1
2
1
~2/1)log(2/1)2log(2/)(
1.....000.
.
.
.
1
.
.....
.
.
.
.
.
.
.
.
...1....0
0
....
1,
3,22,2
3,12,11,1
TT
qqq
a
aa
aaaA
Series de tiempoEstimación por Máxima VerosimilitudProceso ARMA(p, q)
Ahora se condicionará en los p valores iníciales de y
Así, se pueden estimar las perturbaciones aleatorias a partir de la
qtqttptptt eeeYYcY ...... 1111
0)...,( 11
qppp eeee
),...,( 1 pyyy
21/07/2010 Profesor: Andrés Ramírez Hassan 70
Así, se pueden estimar las perturbaciones aleatorias a partir de lasiguiente ecuación de movimiento recursivamente:
Así, la función de verosimilitud condicionada será:
T
pt
t
pTyYY
epTpT
eyyyfLT
12
22
10,,...,
2/1)log(2/)()2log(2/)(
):,,...,(log)(1
qtqtptpttt eeyycye ...... 1111
Series de tiempoEstimación de procesosEnfoque condicional y no condicional en la estimación de unmodelo AR(p, q).
21/07/2010 Profesor: Andrés Ramírez Hassan 71
Los mecanismos de estimación son en general no lineales, y serealizan a través de mínimos cuadrados y máxima verosimilitud.
Series de tiempoValidación de procesosUn modelo ideal debe cumplir los siguientes requisitos:1) Los residuales del modelo estimado se deben aproximar a un
ruido blanco.2) El modelo estimado es estacionario e invertible.3) Los coeficientes son estadísticamente significativos, y están
poco correlacionados entre sí.4) Los coeficientes del modelo son suficientes para representar la
21/07/2010 Profesor: Andrés Ramírez Hassan 72
4) Los coeficientes del modelo son suficientes para representar laserie.
5) El grado de ajuste es elevado en comparación a otros modelosalternativos.
Series de tiempoValidación de procesosContraste sobre los residuales individuales
En primera instancia se debe realizar una inspección gráfica de losresiduales para determinar la presencia de valores atípicos,tendencias y heterocedasticidad. Luego se realiza la inspección delCorrelograma muestral, el cual involucra la trayectoria de loscoeficientes de autocorrelación muestral.
21/07/2010 Profesor: Andrés Ramírez Hassan 73
coeficientes de autocorrelación muestral.
Si no existe el problema de autocorrelación, teóricamente todaslas correlaciones deben ser iguales a cero. Los coeficientes deautocorrelación muestrales se distribuyen asintóticamente normalcon media cero y varianza 1/T. Se puede establecer un intervalode confianza del 95%, es decir, .
Aunque se debe tener presente que se está sobre estimando elintervalo especialmente en los primeros rezagos.
96.1Trt
Series de tiempoValidación de procesos
Contraste sobre los residuales conjuntos
Box-Ljung propusieron una expresión que se acomoda mejor amuestras finitas:
m
sTrTTQ 2 )/()2(*
21/07/2010 Profesor: Andrés Ramírez Hassan 74
m(=raíz cuadrada(T)) es el retardo máximo a incluir. El cual sedistribuye asintóticamente Chi cuadrado(m – p – q).
La hipótesis nula es que los residuos son independientes entre sí.
s
s sTrTTQ1
2 )/()2(*
Series de tiempoValidación de procesosContraste sobre los residuales heterocedasticidad
Es sensato realizar FACE de los residuales al cuadradoestandarizados para detectar problemas de heterocedasticidad.
21/07/2010 Profesor: Andrés Ramírez Hassan 75
Series de tiempoValidación de procesos
Contraste sobre los parámetros del modelo
•Prueba de significancia individual
•Prueba de significancia conjunta
•Invertibilidad y estacionariedad
21/07/2010 Profesor: Andrés Ramírez Hassan 76
•Invertibilidad y estacionariedad
•Multicolinealidad
Series de tiempoValidación de procesos
Bondad de ajuste del modelo
•Coeficiente de determinación (comparar modelos con igualnúmero de diferenciaciones)
•Coeficiente de determinación corregido (comparar modelos con
21/07/2010 Profesor: Andrés Ramírez Hassan 77
•Coeficiente de determinación corregido (comparar modelos conigual número de diferenciaciones)
•Criterios de información:
•Akaike (1974):
•Schwarz (1978):
Nke /2)ˆln( 2
)ln(/)ˆln( 2 NNke
Series de tiempoValidación de procesos
Contraste sobre la estabilidad de los parámetros del modelo
•Prueba Chow (1960)
eeeN
Ntt
N
tt
N
tt ˆˆˆ
1
22
1
21
1
21
21/07/2010 Profesor: Andrés Ramírez Hassan 78
kN
ee
FN
Ntt
N
tt
Nttt
kNk
2
ˆˆ1
22
1
21
111
2,
1
1
1
Series de tiempoValidación de procesos
Reformulación del modelo
•Raíces cercanas a 1 en el componente AR son indicativas de noestacionariedad, luego se debe diferenciar la serie.
•Raíces cercanas a 1 en el componente MA son indicativas de
21/07/2010 Profesor: Andrés Ramírez Hassan 79
•Raíces cercanas a 1 en el componente MA son indicativas desobre diferenciación.
•El FACE y el FACPE de los residuales luego de estimar el modeloindican caminos a seguir para una mejor especificación yvalidación del modelo.
Series de tiempoPronósticoEl predictor óptimo es aquel que posea el ECM mínimo.
Partiendo de un modelo ARIMA(p, d, q) con media nula entonces,
Se desea predecir a partir de T observaciones los valores de lavariable hasta T+l.
tqtdptqtd
p eLYLeLYL )()()()(
21/07/2010 Profesor: Andrés Ramírez Hassan 80
variable hasta T+l.
Formas alternativas de presentar un modelo:•Versión ARMA:
•Versión MA:
•Versión AR:
qlTqlTlTdplTdplTlT eeeYYY ...... 1111
1,)()()( 00
1
jjlTjlTlTlT eeLeLLY
lTj
jlTjlTlTlTlT eYYYLyLLe
1
1 )()()(
Series de tiempoPronóstico
Se designará por el predictor óptimo para T+l utilizando lainformación disponible hasta T, es decir, la sigma álgebra generadapor dicho conjunto. Bajo los siguientes supuestos:1) Se asumen conocidos los parámetros2) Todas las perturbaciones presentes y pasadas se asumen
conocidas.
TlTY
~
21/07/2010 Profesor: Andrés Ramírez Hassan 81
conocidas.
El criterio de optimalidad se fundamentará en la función de ErrorCuadrático Medio. Es decir,
22 )ˆ()~
( TlTlTTlTlT YYEYYE
Series de tiempoPronóstico
Lo cual implica que el predictor óptimo bajo esta función será:
Y su ECM será:
0
~
jjTjlTlT eY
222 )...1()~
(YECM
21/07/2010 Profesor: Andrés Ramírez Hassan 82
Donde este predictor es insesgado.A partir de esto se puede construir intervalos de predicción al 95%de confianza:
221
21 )...1()
~( elTlTYECM
95.0)))~
((96.1~
( 5.0 TlTTlT YECMYP
Series de tiempoPronóstico
En los pronósticos, las perturbaciones estocásticas sondesconocidas, luego se igualan a su valor medio teórico, es decir,0. En general, la representación MA no es operativa, salvo enprocesos MA finitos, luego es más operativa la transformaciónARMA.
eeeYYY ~...~~~...
~~
21/07/2010 Profesor: Andrés Ramírez Hassan 83
ilsi
ilsiee
jlsiYY
eeeYYY
ilTilT
jlTTjlT
qlTqlTTTdplTdpTlTTlT
,0
,~
,~
~...~~~...
~~11111
Series de tiempoPronósticoVeamos un ejemplo con un modelo ARIMA(1, 1, 0):
A partir de la relación siguiente se obtienen los valores necesariostttt
tttt
tt
tt
eYYY
eYYY
eYLLL
eYLL
2211
2111
211
1
)1(
)1(
)1)(1(
21/07/2010 Profesor: Andrés Ramírez Hassan 84
A partir de la relación siguiente se obtienen los valores necesariospara la construcción de los intervalos:
Luego los pronósticos están dados por:1)()( LL
Período Valor real Pronóstico ECM
T+1
T+2
T+3
11211 TTTT eYYY 1211
~ TTTT YYY
2e
22112 TTTT eYYY TTTTT YYY 2112
~~ )1( 2
12 e
312213 TTTT eYYY TTTTTT YYY 12213
~~~ )1( 2
221
2 e
Series de tiempoPronóstico
Evaluación del pronóstico
hT
Tttt yyhEAM
1
~/1
2/1
~ hT
21/07/2010 Profesor: Andrés Ramírez Hassan 85
2/1
1
2)~(/1
hT
Tttt yyhRECM
hy
yyEAM
hT
Tt t
tt /~
1001
Series de tiempoPronóstico
Evaluación del pronóstico
hT
t
hT
t
hT
Tttt
Theil
hyhy
hyy
U22
1
2
//~
/)~(
21/07/2010 Profesor: Andrés Ramírez Hassan 86
Tarea: realizar los ejercicios del capítulo 7 del texto de Uriel yPeiro.
Tt
tTt
t hyhy11
//
Series de tiempoModelos Estacionales
Introducción
Los datos estacionales tienen oscilaciones periódicas, donde elperíodo es inferior a un año.
Modelos estacionarios puros estacionales
21/07/2010 Profesor: Andrés Ramírez Hassan 87
Modelos estacionarios puros estacionales
AR(1) estacional, es decir, AR(1)s será:
Donde la función de autocorrelación de un proceso estacionario,es decir , estará dada por:
tstt eYY 1
11
Series de tiempoModelos Estacionales
Modelos estacionarios puros estacionales
Otro
ssk
k
skk
,0
,...2,,
0,1
1
21/07/2010 Profesor: Andrés Ramírez Hassan 88
Tarea: Simular un proceso estacionario AR(1) Y AR(1)4 yencontrar las FACTs.
Series de tiempoModelos Estacionales
Modelos estacionarios puros estacionales (FACT)
Otro
ssk
k
eYYY
skskk
tststt
,0
,...2,,
0,1
221
221
21/07/2010 Profesor: Andrés Ramírez Hassan 89
Otro
sk
k
eeY
Otro
k
sttt
,0
,1
0,1
,0
21
1
1
Series de tiempoModelos EstacionalesModelos estacionarios puros estacionales (FACT)
sk
sk
k
eeeY
k
ststtt
2,
,1
0,1
2
22
21
211
221
21/07/2010 Profesor: Andrés Ramírez Hassan 90
Otro
ssk
sk
k
eeYY
Otro
sk
sk
k
sttstt
,0
,...3,2,
,21
)()1(
0,1
,0
2,1
1
1121
1111
11
22
21
2
Series de tiempoModelos Estacionales
Modelos estacionarios puros estacionalesEl modelo estacional ARMA(P,Q) tendrá la siguiente estructura:
Modelos estacionales multiplicativos estacionarios
ts
ts eLYL )()(
21/07/2010 Profesor: Andrés Ramírez Hassan 91
El ARMA mixto o multiplicativo está dado por:
Veamos algunos ejemplos…
ts
ts eLLYLL )()()()(
Series de tiempoModelos Estacionales
Modelos estacionales multiplicativos estacionarios
El Cálculo de la FACT puede llegar a ser laborioso. Peña (1979) ha deducido una fórmula general que permite aproximar los coeficientes de autocorrelación de un proceso ARMA(p,q)xARMA(P,Q
21/07/2010 Profesor: Andrés Ramírez Hassan 92
ARMA(p,q)xARMA(P,Q)s.
Donde es el coeficiente de autocorrelación de orden k en un proceso ordinario ARMA(p,q), es el coeficiente de autocorrelación de orden k en un proceso estacional puro ARMA(P,Q) y es el coeficiente de autocorrelación de orden k en un proceso multiplicativo ARMA(p,q)xARMA(P,Q)s.
1
)(i
ksisikssik
Tk
ksk
Tk
Series de tiempoModelos Estacionales
Modelos estacionales multiplicativos estacionarios
La anterior expresión es exacta en caso de que la parte ordinaria sea un proceso de medias móviles de orden inferior al período estacional. Si el orden de la parte autorregresiva es bajo y si el período estacional es relativamente elevado se tendrá que
21/07/2010 Profesor: Andrés Ramírez Hassan 93
período estacional es relativamente elevado se tendrá que para k s.a) En los retardos bajos -1, 2, …, s/2- la única estructura que
aparece es la correspondiente a la parte ordinaria,
puesto que
0k
2/,...,2,1,0, skkTk
,...1,0,00 iy ksisik
Series de tiempoModelos Estacionales
Modelos estacionales multiplicativos estacionarios
b) En los retardos k = s, 2s,…, el único efecto importante es el correspondiente a la parte estacional. En efecto
ss
ssss
sss
sss
Ts 03202 ...)()(
21/07/2010 Profesor: Andrés Ramírez Hassan 94
c) En los retardos contiguos a múltiplos de s, se obtiene simétricamente la reproducción de la parte ordinaria tomando como referencia los valores de los retardos estacionales. Es decir,
A los coeficientes de autocorrelación contiguos a los múltiplos de sse les nomina coeficientes satélites.
sssssssss 03202 ...)()(
jsh
Tjsh
Tjsh
Series de tiempoModelos Estacionales
Modelos estacionales multiplicativos estacionarios
Veamos algunos ejemplos y realicemos algunas simulaciones…
Resumiendo se puede decir que cuando la parte ordinaria y la parte estacional son de medias móviles, los patrones de
21/07/2010 Profesor: Andrés Ramírez Hassan 95
parte estacional son de medias móviles, los patrones de comportamiento son nítidos; se complican un poco cuando se introduce un componente estacional autorregresivo, y es aun peor cuando la parte ordinaria tiene esta característica.
Series de tiempoModelos Estacionales
Modelos estacionales multiplicativos estacionarios
21/07/2010 Profesor: Andrés Ramírez Hassan 96
Series de tiempoModelos Estacionales
Modelos estacionales no estacionarios
Cuando la secuencia estacional de coeficientes de correlación presenta un decaimiento suave es indicio de no estacionariedad en el componente estacional del modelo, luego se deben tomar diferencias estacionales.
ts
tDs
ds eLLYLL )()()()(
21/07/2010 Profesor: Andrés Ramírez Hassan 97
diferencias estacionales. Pruebas de raíces unitarias:•Presencia de efectos estacionales (paginas 228-233, Enders)•Quiebre estructural (paginas 243 – 251, Enders)•Diferenciación versus eliminando tendencia (paginas 176-180, Enders)•Problemas en las pruebas de raíces unitarias (paginas 251-256, Enders)
Series de tiempoModelos Estacionales
Elaboración de un modelo ARIMA estacional•Identificación: El efecto de la no estacionariedad en el componente estacional complica el análisis.•Estimación: Los modelos son no lineales, se pierde más información y hay
21/07/2010 Profesor: Andrés Ramírez Hassan 98
Los modelos son no lineales, se pierde más información y hay diferencias significativas entre la estimación condicionada y no condicionada.•Validación:Verificar las hipótesis básicas del modelo.•Pronóstico:Seleccionar los mejores modelos y validarlos a través de pronóstico ex post.
Series de tiempoAnálisis de intervención
Inició en los 1960’s debido a la proliferación de atentados terroristas. Un artículo clásico fue escrito por Enders, Sandler y Cauley (1990) donde se determinó el efecto de los detectores de metales en los aeropuertos sobre el número de secuestros de aviones.Básicamente hay dos tipos de variables en esta estrategia de
21/07/2010 Profesor: Andrés Ramírez Hassan 99
Básicamente hay dos tipos de variables en esta estrategia de modelación; las variables impulso y las variables escalón.
Variables impulso:
ttt
t
IeL
LY
tt
ttI
0
*
*
)(
)(
,0
,1
Series de tiempoAnálisis de intervención
Variable escalón:
t
EeL
Y
tt
ttE
*
*
)(
,0
,1
21/07/2010 Profesor: Andrés Ramírez Hassan 100
Observe la relación entre las funciones de intervención establecidas:
ttt EeL
Y 0)(
tt ELI )1(
Series de tiempoAnálisis de intervención
Obviamente, se pueden presentar casos mas complejo.
tb
tt
tb
tt
ELL
Le
L
LY
ILL
Le
L
LY
)(
)(
)(
)(
)(
)(
)(
)(
21/07/2010 Profesor: Andrés Ramírez Hassan 101
Donde
Además, b refleja el número de períodos de tiempo que tarda el proceso estocástico en verse afectado por el suceso considerado.
ttt LL )()(
rr
ss
LLL
LLL
...)(
...)(
10
10
Series de tiempoAnálisis de intervención
Veamos algunos casos particulares:
Caso uno:
Caso dos: , situaciones extremas
ttt ILeL
LY )(
)(
)(10
L)(
01I
21/07/2010 Profesor: Andrés Ramírez Hassan 102
Caso dos: , situaciones extremas
Caso tres:
ttt IL
eL
LY
1
0
1)(
)(
ttt ELeL
LY )(
)(
)(10
1
0
1
1
tI
Series de tiempoAnálisis de intervención
“Cuando los factores externos que debemos someter al análisis de intervención afectan considerablemente a la serie, la identificación es una tarea compleja. Así, la función de autocorrelación puede ser muy diferente con y sin intervención. En la práctica, si disponemos de suficientes observaciones
21/07/2010 Profesor: Andrés Ramírez Hassan 103
En la práctica, si disponemos de suficientes observaciones anteriores a la intervención, se suelen utilizar éstas para identificar el proceso” Uriel y Peiro (página, 184).
Series de tiempoAnálisis de intervención
Pasos para el desarrollo de un modelo de intervención:
1) Use el tamaño de muestra superior (antes o después del fenómeno) para determinar el modelo ARIMA apropiado.
2) Estime varios modelos sobre todo el período muestral
21/07/2010 Profesor: Andrés Ramírez Hassan 104
2) Estime varios modelos sobre todo el período muestral incluyendo el efecto de la intervención (estime varias formas de intervención).
3) Realice las pruebas de diagnóstico de las ecuaciones estimadas.
4) Seleccione el modelo que minimiza los criterios de información.
Series de tiempoModelos de transferencia
Estos son una generalización de los modelos de intervención,
Donde se asume exogeneidad de es conocida como la
ttt eLZLYL )()()(
)(LyZ
21/07/2010 Profesor: Andrés Ramírez Hassan 105
Donde se asume exogeneidad de es conocida como la función de transferencia.
Analicemos un ejemplo sencillo (Enders, página 279),
Donde son ruido blanco y no están correlacionados.
)(LyZt
tdtdtt eZYY 11
tt eyZ
Series de tiempoModelos de transferencia
Así se tiene que:
ds
dsZYE
Zds
d
stt,
,0)(
21
21/07/2010 Profesor: Andrés Ramírez Hassan 106
En general,•Los coeficientes de correlación cruzados ( )son iguales a cero hasta que aparece el primer valor diferente de cero en la función de transferencia.•La forma de la parte de medias móviles no afecta los coeficientes de autocorrelación cruzados teóricos, al igual que el intercepto.
)(sYZ
Series de tiempoModelos de transferencia
•Un pico se da en la Función de Autocorrelación Cruzada (FACC) cuando aparece un elemento diferente de cero en la función de transferencia.•Los picos decaen a la tasa que determinan las raíces características del polinomio en la parte autoregresiva.
21/07/2010 Profesor: Andrés Ramírez Hassan 107
Pero normalmente no somos tan afortunados que encontrar que es ruido blanco, luego se deben realizar las siguientes adaptaciones:
Entonces,
tZ
Ztt eLZL )()(
Series de tiempoModelos de transferencia
Donde se tiene la misma función de transferencia entre y , y
tZtft
ttt
eLLLeLYL
eLLLZLLLYLLL
)()()()()(
)()()()()()()()()(
1
111
Y Z
21/07/2010 Profesor: Andrés Ramírez Hassan 108
Donde se tiene la misma función de transferencia entre y , y entre y .
Recapitulando, los pasos para estimar un modelo de transferencia son los siguientes:* Ajuste un modelo ARMA para y guarde los residuales de este modelo, los cuales se denominan las series filtradas.* Obtenga con los coeficientes estimados en el paso anterior
tY tZZteftY
tZtZ
ftY
Series de tiempoModelos de transferencia
a partir de .* Halle FACC entre y , bajo la hipótesis nula que las correlaciones cruzadas son todas cero, la varianza muestral de los diferentes coeficientes de correlación cruzada converge asintóticamente a . Sea el coeficiente de correlación muestral entre y , bajo la hipótesis nula que
tYLL 1)()( ftY sZte ˆ
1)( sT )(srYZ
Y Z
21/07/2010 Profesor: Andrés Ramírez Hassan 109
correlación muestral entre y , bajo la hipótesis nula que todos los valores de son iguales a cero, la varianza del coeficiente de correlación muestral converge a .Valores estadísticamente significativos de las correlaciones cruzadas en el rezago s indican que una innovación en afectan a . La prueba de la significancia conjunta de las k correlaciones cruzadas se realiza a través de la prueba Box-Lunj.
tY stZ )(sYZ
)(srYZ1)( sT
tZstY
Series de tiempoModelos de transferencia
* Examine el patrón de la FACC. Cualquier pico es señal de que el coeficiente asociado es diferente de cero y la forma de decaimiento es señal del polinomio asociado al componente autorregresivo. Estime todos los modelos de transferencia que considere plausibles. En esta instancia se debe tener una aproximación a
21/07/2010 Profesor: Andrés Ramírez Hassan 110
aproximación a
* Donde , luego examine los residuales de este modelo a través de la FACT y FACPT para determinar los componentes del polinomio en la parte autorregresiva.* Combine los tres pasos anteriores para obtener una estimación completa del modelo. Valide los supuestos y elija el mejor modelo.
ttt ZLYL )()(
tt eL)(
Series de tiempoModelos de transferencia
Hay dos grandes limitantes en los modelos de transferencia; el primero es hallar el modelo parsimonioso y el segundo es el supuesto de exogeneidad. La última idea causó que Sims (1980) propusiera los modelos de Vectores Autorregresivos (VAR).
21/07/2010 Profesor: Andrés Ramírez Hassan 111
Series de tiempoModelos de heterocedasticidad condicionada
Modelar la varianza en el contexto de series de tiempo implica mejorar la eficiencia de los parámetros estimados y la aproximación en los intervalos de predicción.Pese a que la volatilidad no es directamente observable (por la existencia de variaciones intra diarias), ésta tiene ciertas características que son comunes en las series de retornos
21/07/2010 Profesor: Andrés Ramírez Hassan 112
características que son comunes en las series de retornos financieras:•Existen fenómenos de agrupamientos•Evoluciona en el tiempo en forma continua•No diverge•Existe el fenómeno de apalancamiento (asimetría)
Series de tiempoModelos de heterocedasticidad condicionada
Se debe tener presente la diferencia que hay entre no correlación e independencia. Aunque bajo el supuesto de normalidad, estos dos fenómenos son equivalentes.Los modelos de volatilidad pretenden modelar la dependencia del proceso estocástico en diferentes momentos del tiempo.
eY
21/07/2010 Profesor: Andrés Ramírez Hassan 113
Se asumirá para el tratamiento que la media del proceso está dada, pero se debe tener presente que el proceso de estimación es simultáneo.
12
12
1
111
ttttttt
q
iiti
p
iitittt
ttt
IeEIYEIYVar
ecIYE
eY
Series de tiempoModelos de heterocedasticidad condicionada
Modelos ARCH, Engle (1982).La idea básica es que la perturbación estocástica es no correlacionada, pero dependiente.
....0,0,22 diie
em
ttt
21/07/2010 Profesor: Andrés Ramírez Hassan 114
En la práctica, la perturbación estocástica épsilon se asume normal estándar o t-Student.
Analicemos las propiedades estadísticas de ARCH(1)…
....0,0, 01
20
2 diie tii
itit
Series de tiempoModelos de heterocedasticidad condicionadaModelos ARCH, Engle (1982).
10)(
0)(
....0,0,
10
102
1102
eVar
eE
diie
e
t
t
ttt
ttt
21/07/2010 Profesor: Andrés Ramírez Hassan 115
La curtosis de e es mayor que la encontrada en una distribución normal, lo cual implica una mayor probabilidad de eventos atípicos.
)(
3/10,331
13
)(
)()(
101
)(
212
1
21
2
4
11
NormalidadBajo
eVar
eEeCurtosis
eVar
t
tt
t
Series de tiempoModelos de heterocedasticidad condicionadaModelos ARCH, Engle (1982).Limitaciones del modelo:•Simetría en las respuestas•Las restricciones sobre los parámetros son exigentes•No arroja luces para entender la fuente de variación•Sobre estima la volatilidad•Sobre parametrizado
21/07/2010 Profesor: Andrés Ramírez Hassan 116
•Sobre parametrizadoConstrucción del modelo:•Modelar la media a través de un ARIMA(p,d,q)•Analizar los residuales al cuadrado (Grafica, FACE, Pruebas formales)•Utilizar el FACP de los residuales al cuadrado para determinar el orden del modelo ARCH(m)
Series de tiempoModelos de heterocedasticidad condicionadaModelos ARCH, Engle (1982).
•Estimación bajo el supuesto de normalidad (MV)
Normalmente se desprecia la última parte de la anterior
),...,,(2
exp2
1),...,,( 21
12
2
2/1221
m
T
mt t
t
t
T eeefe
eeef
21/07/2010 Profesor: Andrés Ramírez Hassan 117
Normalmente se desprecia la última parte de la anterior expresión. Así,
Finalmente se maximiza la siguiente expresión y el cálculo es recursivo.
T
mt t
t
t
mTmm
eeeeeeef
12
2
2/122121 2exp
2
1),...,,,,...,,(
T
mt t
ttmTmm
eeeeeeel
12
22
2121 5.0ln5.0),...,,,,...,,(
Series de tiempoModelos de heterocedasticidad condicionadaModelos ARCH, Engle (1982).
Tarea: deducir la función de verosimilitud en el caso de asumir una distribución t-Student.
•Validar el modelo a través de análisis de los residuales estandarizados.
21/07/2010 Profesor: Andrés Ramírez Hassan 118
estandarizados.•El pronóstico se realiza de forma recursiva al igual que bajo los modelos ARIMA.
Series de tiempoModelos de heterocedasticidad condicionada
Modelos GARCH, Bollerslev (1986).Este pretende solucionar el problema de sobre parametrización en los modelos ARCH.
.1)(,0,0,0,),(
222 e
esmMaxsm
ttt
21/07/2010 Profesor: Andrés Ramírez Hassan 119
En la práctica, la perturbación estocástica épsilon se asume normal estándar o t-Student.
Analicemos las propiedades estadísticas de GARCH(1,1)…
)1,0.(..
.1)(,0,0,0,1
01
2
1
20
2
dii
e
t
iiiji
jjtj
iitit
Series de tiempoModelos de heterocedasticidad condicionadaModelos GARCH, Bollerslev (1986).
0)(
).1,0(..
.1)(,1,0,0,
?
111102
112
1102
eE
dii
e
e
t
ttt
ttt
21/07/2010 Profesor: Andrés Ramírez Hassan 120
)(
02)(1,32)(1
)(13
)(
)()(
101
)(
0)(
21
2112
12
11
211
?
2
4
111
0?
NormalidadBajo
eVar
eEeCurtosis
eVar
eE
t
tt
t
t
Series de tiempoModelos de heterocedasticidad condicionadaModelos GARCH, Bollerslev (1982).Limitaciones del modelo:•Simetría en las respuestas•Las restricciones sobre los parámetros son exigentes•No arroja luces para entender la fuente de variación•Las colas son poco pesadas
21/07/2010 Profesor: Andrés Ramírez Hassan 121
Series de tiempoModelos de heterocedasticidad condicionadaModelos IGARCH.Si la representación AR del modelo GARCH presenta una raíz unitaria se debe acudir a los modelos GARCH Integrados. Específicamente se debe verificar esta expresión:
1
),(
1
20
2 )(s
jjtjt
smMax
iitiit ee
21/07/2010 Profesor: Andrés Ramírez Hassan 122
Luego un IGARCH(1,1) se puede expresar como:
Bajo esta especificación la varianza incondicional no está definida, lo cual puede obedecer a cambios de nivel en la volatilidad. Nuevamente efectos transitorios se convierten en permanentes.
22
11
ttt
ji
e
211
2110
2 )1( ttt e
Series de tiempoModelos de heterocedasticidad condicionadaModelos M-GARCH.
En algunas ocasiones la media del proceso analizado puede depender de su varianza, lo cual da origen a los modelos M-GARCH. Específicamente un M-GARCH(1,1) será:
2 ecY ttt
21/07/2010 Profesor: Andrés Ramírez Hassan 123
Donde c en la literatura financiera se conoce como prima por volatilidad.Observe que en este modelo se presenta correlación serial debido a la volatilidad.
).1,0(..
.1)(,1,0,0, 111102
112
1102
dii
e
e
ecY
t
ttt
ttt
ttt
Series de tiempoModelos de heterocedasticidad condicionadaModelos EGARCH, Nelson(1991).
Este se introduce con el objetivo de permitir asimetrías en las respuestas de la variable dependiente ante la llegada de nueva información (positiva o negativa). La formulación matemática es la siguiente:
21/07/2010 Profesor: Andrés Ramírez Hassan 124
Un modelo EGARCH(m, s) será:
0,
0,)(
ttt
ttt
ttttE
EEg
)(...1
...1)ln( 1
1
10
2
tmm
ss
t
ttt
gLL
LL
e
Series de tiempoModelos de heterocedasticidad condicionadaModelos EGARCH, Nelson(1991).
Las raíces características de los polinomios en el operador de rezagos deben estar fuera del circulo unidad.
La especificación en forma logarítmica implica un relajamiento sobre las restricciones que se imponen en los modelos GARCH.
21/07/2010 Profesor: Andrés Ramírez Hassan 125
sobre las restricciones que se imponen en los modelos GARCH. Igualmente este modelo permite respuestas asimétricas.
Veamos un sencillo ejemplo, EGARCH(1,0):
La perturbación estocástica es i.i.d. normal estándar.
)()1()ln()1( 1012
1
tt
ttt
gL
e
Series de tiempoModelos de heterocedasticidad condicionada
Modelos EGARCH, Nelson(1991).
Así,
0,)(
0,)()ln()1(
11*
11*
21
tt
tttL
21/07/2010 Profesor: Andrés Ramírez Hassan 126
Lo cual implica
2)1()1(
0,)(
0101*
11
t
tt
E
0,)(
0,)(
11*
11*
21
2 1
tt
tttt
Exp
Exp
Series de tiempoModelos de heterocedasticidad condicionada
Modelos EGARCH, Nelson(1991).Tarea: Asuma que obtuvo los siguientes resultados de un modelo EGARCH(1,0)
856.01
)(496.5)ln( 12
t
t L
g
21/07/2010 Profesor: Andrés Ramírez Hassan 127
¿Cuál es la diferencia porcentual en la volatilidad del modelo cuando se presenta un shock estandarizado negativo con magnitud 2 y otro positivo de la misma magnitud?Pista
22647.00795.0)(
856.01
111
tttg
L
22 11 tt y
Series de tiempoModelos Heterocedasticidad Condicional: Restricciones sobre los parámetros.
21/07/2010 Profesor: Andrés Ramírez Hassan 128