71
1 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R. Yeison López Lizcano Universidad de Granada Departamento de Estadística e Investigación Operativa Granada, España 2016

Series de tiempo: Modelos Heterocedásticos. Aplicación a

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Series de tiempo: Modelos Heterocedásticos. Aplicación a

1 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Series de tiempo: Modelos

Heterocedásticos. Aplicación a una serie

económica usando R.

Yeison López Lizcano

Universidad de Granada Departamento de Estadística e Investigación Operativa

Granada, España 2016

Page 2: Series de tiempo: Modelos Heterocedásticos. Aplicación a

2 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Series de tiempo: Modelos

Heterocedásticos. Aplicación a una serie

económica usando R.

Yeison López Lizcano

Trabajo presentado como requisito parcial para optar al título de de:

Máster en Estadística Aplicada

Director:

Dr. Francisco Javier Alonso Morales

Línea de Investigación: Análisis de series temporales. Aplicaciones a riesgos financieros

Universidad de Granada Departamento de Estadística e Investigación Operativa

Granada, España 2016

Page 3: Series de tiempo: Modelos Heterocedásticos. Aplicación a

3 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Page 4: Series de tiempo: Modelos Heterocedásticos. Aplicación a

4 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Dedicatoria

Para mi padre, mi madre, mi hermano y mi cuñada,

quienes gracias a su esfuerzo, apoyo y dedicación

hicieron este trabajo posible.

“En el campo de la investigación

el azar no favorece más que…

a los espíritus preparados”.

Louis Pasteur

Page 5: Series de tiempo: Modelos Heterocedásticos. Aplicación a

5 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Page 6: Series de tiempo: Modelos Heterocedásticos. Aplicación a

6 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Contenido

Introducción………………………………………………………………………………………10

1 Conceptos básicos ................................................................................................. 13

1.1 Componentes ................................................................................................... 13

1.1.1 Tendencia. ................................................................................................. 13

1.1.2 Estacionalidad. ......................................................................................... 13

1.1.3 Aleatoriedad. ............................................................................................. 13

1.2 Clasificación de las series temporales .......................................................... 14

1.2.1 Serie homocedástica: ............................................................................... 14

1.2.2 Serie heterocedástica. .............................................................................. 14

1.2.3 Procesos estocásticos. ............................................................................ 14

1.2.4 Clasificación de procesos estocásticos. ................................................ 14

1.2.5 Función de distribución. .......................................................................... 15

1.3 Momentos......................................................................................................... 15

1.3.1 Primer momento. ...................................................................................... 15

1.3.2 Segundo momento. .................................................................................. 15

1.4 Procesos estacionarios. .................................................................................. 15

1.4.1 Estacionariedad estricta. ......................................................................... 16

1.4.2 Estacionariedad débil. .............................................................................. 16

1.5 Funciones de autocovarianzas y autocorrelación. ....................................... 17

1.5.1 La función de autocovarianzas. ............................................................... 17

1.5.2 Función de Autocorrelación ACF. ........................................................... 17

1.5.3 Ruido blanco. ............................................................................................ 17

1.6 Modelos para series de tiempo estacionarias. .............................................. 18

1.6.1 Modelo lineal general. .............................................................................. 18

1.6.2 Parámetros del proceso: .......................................................................... 19

1.7 Proceso lineal estacionario. ........................................................................... 20

1.7.1 Estacionariedad de un proceso AR(1). ................................................... 20

1.7.2 Proceso autorregresivo de orden p: AR(2). ............................................ 23

1.7.3 Primer momento del proceso. ................................................................. 24

1.7.4 Función de autocovarianza y autocorrelación. ...................................... 24

Page 7: Series de tiempo: Modelos Heterocedásticos. Aplicación a

7 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.8 La estimación de los procesos autorregresivos. .......................................... 27

1.8.1 Proceso de Medias Móviles de orden 1, MA(1):...................................... 28

1.8.2 Proceso de Medias Móviles de orden 2, MA(2):...................................... 30

1.9 Procesos autorregresivos de Medias Móviles:ARMA(p,q). .......................... 32

1.9.1 Proceso Autorregresivode Medias Móviles de orden (1, 1), ARMA(1, 1):

33

1.9.2. Modelos lineales no estacionarios. ............................................................ 35

1.9.3. Proceso Autorregresivo Integrado de Media Móvil ARIMA(p, d, q). ...... 36

1.9.4 Modelo de Paseo Aleatorio. ..................................................................... 37

1.9.5 Modelo de Paseo Aleatorio con deriva. .................................................. 37

1.9.6 Modelos Heterocedásticos Condicionales. ............................................ 38

1.9.7 Modelo autorregresivo condicional heterocedástico de orden p:

ARCH(p). .................................................................................................................. 38

1.9.8 Proceso ARCH(1) ...................................................................................... 39

1.9.9 Valor esperado no condicionales. ........................................................... 40

1.9.10 Función de autocovarianza. ..................................................................... 41

1.9.11 Esperanza y varianza condicional ........................................................... 43

1.9.12 Función de verosimilitud del proceso ARCH(1). .................................... 43

1.9.13 Generalización ARCH(p) .......................................................................... 45

1.9.14 Generalización de la esperanza y varianza no-condicionales. .............. 45

1.9.15 Estimación de parámetros. ...................................................................... 47

1.9.16 Modelo Autoregresivo Condicional Heterocedástico Generalizado.

(GARCH) .................................................................................................................. 48

1.9.17 Definición proceso GARCH (p,q) ............................................................. 48

1.9.18 Correlación de un proceso GARCH. ........................................................ 49

1.9.19 Proceso GARCH fuerte (p, q). .................................................................. 49

1.9.20 Proceso GARCH(1,1). ............................................................................... 50

1.9.21 Estacionariedad estricta del proceso GARCH fuerte(1, 1): ................... 50

1.9.22 Condición estricta de estacionariedad. .................................................. 50

2. Capítulo 2. Algunos comandos en R. .................................................................... 52

2.1. Limpiar y preparar la información. ........................................................................ 52

2.2. Lectura de la información y librerías a utilizar. .................................................... 52

2.3. Convertir la información en una serie de tiempo. ................................................ 53

Page 8: Series de tiempo: Modelos Heterocedásticos. Aplicación a

8 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

2.4. Estadísticas descriptivas y gráfico de la función pura. ....................................... 53

2.5 Prueba de independencia en los rezagos. ..................................................... 53

2.6 Prueba de efectos ARCH. ................................................................................ 53

2.7 Función de autocorrelación (FAC) y autocorrelación parcial (FACP) para el

modelo ARIMA. ........................................................................................................... 54

2.8 Modelos ARIMA propuestos. .......................................................................... 54

2.9 Selección del modelo ARIMA. ......................................................................... 54

2.10 Función de autocorrelación (FAC) y autocorrelación parcial (FACP) para el

modelo ARCH/GARCH. .............................................................................................. 55

2.11 Modelos ARCH/GARCH propuestos. .............................................................. 55

2.12 Selección del modelo ARCH/GARCH. ............................................................ 56

2.13 Modelo ARCH/GARCH seleccionado. ............................................................ 56

2.14 Gráfico del modelo ARIMA y GARCH. ............................................................ 56

3 Capítulo 3. Aplicación de una serie de tiempo económica utilizando R. ............ 57

3.1 Lectura de la información y librerías a utilizar. ............................................. 57

3.2 Convertir la información en una serie de tiempo. ................................................ 57

3.3 Estadísticas descriptivas y gráfico de la función pura. ....................................... 57

3.4 Prueba de independencia en los rezagos. ............................................................ 58

3.5 Prueba de efectos ARCH. ....................................................................................... 59

3.6 Función de autocorrelación (FAC) y Función de autocorrelación parcial (FACP)

para el modelo ARIMA. .................................................................................................. 59

3.7 Modelos ARIMA propuestos. ................................................................................. 62

3.8 Selección del modelo ARIMA. ................................................................................ 62

3.9 Función de autocorrelación (FAC) y Función de autocorrelación parcial (FACP)

para el modelo ARCH/GARCH. ..................................................................................... 62

3.10 Modelos ARCH/GARCH propuestos. ..................................................................... 63

3.11 Selección del modelo ARCH/GARCH. ................................................................... 64

3.12 Modelo ARCH/GARCH seleccionado..................................................................... 64

3.13 Gráfico de los retornos de Precio de cierre de la TRM Colombiana con los

intervalos de confianza del modelo GARCH. ............................................................... 65

4 Anexos. ................................................................................................................... 67

4.1 Pruebas de raíz unitaria. ........................................................................................ 67

4.2 Dickey-Fuller (DF) y Dickey-Fuller aumentada(ADF) ............................................ 68

Bibliografía ..................................................................................................................... 70

Page 9: Series de tiempo: Modelos Heterocedásticos. Aplicación a

9 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Page 10: Series de tiempo: Modelos Heterocedásticos. Aplicación a

10 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Introducción.

En el estudio y análisis de las series de tiempo se busca explicar la naturaleza de

una variable (económica) y la relación de esta con otras variables a lo largo del

tiempo.

En el capítulo uno estudiaremos algunos de los elementos que componen esa

variable económica y que suelen encontrarse como una serie de observaciones

dependientes ordenadas en el tiempo, donde además es necesario construir un

modelo que replique el comportamiento de estos datos en un tiempo dado t, pero

antes de esto hay que determinar si la serie presenta o no estacionalidad y cómo

influyen las observaciones del pasado en el futuro, es decir la correlación entre la

variable de interés y sus valores pasados permitirá estudiar los modelos lineales

estacionarios.

El análisis de las funciones de autocorrelación (ACF) y la función de autocorrelación

parcial (FACP) junto con el proceso de ruido blanco (WN), permitirán clasificar los

modelos lineales estacionarios y no estacionarios a partir de sus características más

esenciales. Empezaremos describiendo el proceso AR(p) donde a partir de los

procesos autoregresivos (de memoria larga) quienes presentan una característica

temporal, la cual será útil mencionar en cuanto a la absorción de perturbaciones en

un tiempo t, pero existen otro tipo de series que absorben ligeramente estas

perturbaciones y no se pueden modelar mediante procesos AR, y para ello se

introducen los modelos que presenten memoria corta, es decir que presenten Media

Móvil MA(q).

Ahora analizaremos aquellas series donde el número de parámetros juega un papel

fundamental en la descripción estructural y dinámica de los datos, es conveniente

hacer una reducción de estos parámetros y para ello se recurre al proceso

ARMA(p,q) que surge de la combinación de estructuras autorregresivas y de media

móvil donde la estructura AR(p) y MA(q) presentan sus respectivas funciones FAC

y FACP junto con el proceso ruido blanco (WN).

En los apartados anteriores, se describieron aquellos conceptos en donde en

términos generales se muestran algunas técnicas que, se fundamentan en

identificar las características más relevantes de los modelos AR y MA, junto con sus

respectivas funciones de autocorrelación y los procesos ruido blanco. El supuesto

general para estos modelos fue que los datos de series de tiempo se pueden

representar como la suma de dos componentes distintas: determinista y estocástica

(aleatoria). El primero se modela como una función del tiempo, mientras que para

este último se asumió que algo de ruido aleatorio que se añade a la señal

Page 11: Series de tiempo: Modelos Heterocedásticos. Aplicación a

11 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

determinista genera el comportamiento estocástico de la serie temporal. Un

supuesto muy importante es, que el ruido aleatorio se genera a través de los

choques independientes al proceso. En la práctica, sin embargo, esta suposición es

a menudo vulnerada. Esto es, por lo general observaciones sucesivas muestran la

dependencia de serie. Vamos a explorar una clase general de modelos llamados

autorregresivo integrado en promedio móvil, de los modelos o modelos ARIMA

(también conocidos como modelos Box-Jenkins) (Montgomery., Jennings, &

Kulahci, 2008).

Analizando los procesos anteriores, es momento de adentrarnos en los procesos

heterocedásticos condicionales, donde podemos observar los procesos ARCH y

GARCH y sus características en el modelamiento de series de tiempo. Los procesos

ARCH quienes bajo el supuesto de suavizar la hipótesis de normalidad, con la

condición que se tengan procesos ruido blanco generados por variables

dependientes.

Para el proceso GARCH o ARCH generalizado, desarrollado por Bollerslev(1986),

quien propone una serie de retardos en la varianza condicional al modelo, esto con

el fin de dar una mayor precisión e incluir los valores pasados con menores rezagos

para valores más distantes, esto caracteriza un modelo GARCH.

En el capítulo dos se muestran algunos comandos en R que posteriormente se

utilizaran para analizar una serie económica, esto con el fin de modelarla a partir de

las herramientas conceptuales vistas en el capítulo uno.

En capítulo 3 se mostrara una aplicación de una serie económica, La serie

económica estudiada será la tasa de cambio representativa del mercado (TRM)

diaria Colombiana de la página del Banco de la República, donde el objetivo

principal es construir el modelo que describe la serie de tiempo a partir de sus

componentes.

Page 12: Series de tiempo: Modelos Heterocedásticos. Aplicación a

12 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Page 13: Series de tiempo: Modelos Heterocedásticos. Aplicación a

13 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Capítulo 1.

1 Conceptos básicos.

El análisis de datos en contextos sociales, físicos, biológicos, geológicos, entre

otros, es una herramienta de estudio muy importante, consiste en identificar si esos

datos cuentan con algún patrón (orden) y si también dependen de algún parámetro

temporal, si es así entonces estamos considerando definirlo como una serie

temporal (serie de tiempo) donde identificamos sus características más relevantes

en cuanto a la naturaleza de los datos y la forma en la que se cuantifican, es decir

si estas series de tiempo resultan ser de tipo discreto o continuo y si su orden de

aparición (cronológico) en una característica es de forma escalar o (univariado) o

de varias características o vectorial (multivariado).

Es necesario explorar la naturaleza de los datos y su comportamiento en el tiempo,

de forma descriptiva (tendencia central, dispersión, deformación y apuntamiento) y

también analizar la forma en la que surgen estos datos que no necesariamente es

determinística, sino que fluctúan de manera aleatoria (probabilística) en el tiempo,

por lo que analizaremos su comportamiento como una secuencia de variables

aleatorias encapsuladas a medida que van emergiendo en el tiempo. Con este

panorama empezaremos definiendo formalmente una serie de tiempo y sus

componentes principales.

1.1 Componentes

En el análisis de series temporales se recurre a la descomposición de la variable de

observación en varias componentes, de las cuales enfocaremos nuestra atención

en aquellas que presentan tendencia o periodicidad para analizarlas bajo

parámetros temporales (a largo plazo) y también su comportamiento estacional y

aleatorio.

1.1.1 Tendencia.

Empezaremos describiendo el comportamiento de una serie temporal a partir de los

cambios que presenta la media a largo plazo. La tendencia la definiremos como el

movimiento que sufre la serie temporal a largo plazo.

1.1.2 Estacionalidad.

La variación de la serie en algún periodo de tiempo se conoce como efecto

estacional. El concepto de estacionariedad se puede caracterizar bien en términos

de la función de distribución o de los momentos del proceso (Casimiro, 2009).

1.1.3 Aleatoriedad.

En una serie temporal la tendencia y la estacionariedad resultan ser de naturaleza

determinística, mientras que la aleatoriedad es de naturaleza probabilística por lo

Page 14: Series de tiempo: Modelos Heterocedásticos. Aplicación a

14 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

que resultara útil inferir el comportamiento de la serie temporal a lago plazo

seleccionando una distribución de probabilidad adecuada para dicho fin.

1.2 Clasificación de las series temporales

1.2.1 Serie homocedástica:

Una serie homocedástica es aquella donde la varianza de los errores estocásticos

de la regresión se mantiene constante a lo largo de las observaciones, es decir la

varianza no cambia en el tiempo.

1.2.2 Serie heterocedástica.

Una serie se clasifica como heterocedástica si su variabilidad aumenta o disminuye

con el tiempo, pero también analizaremos una serie no estacionaria cuando los

cambios en la media determinan una tendencia a crecer o decrecer a largo plazo,

por lo que la serie no oscila alrededor de un valor constante. (Villavicencio, 2014)

1.2.3 Procesos estocásticos.

La secuencia de variables aleatorias {Xt: t = 0, ± 1, ± 2, ± 3,...} que se denomina un

proceso estocástico y sirve como un modelo para una serie de tiempo observado.

(Cryer & Chan, 2008). En términos un poco más generales, un proceso estocástico

resulta ser una colección variables ordenadas {Xt}, de acuerdo a un parámetro t,

sobre el conjunto de los números enteros t = 0, ± 1, ± 2,..., o algún subconjunto de

los números reales. Si el proceso es estocástico, cada valor de datos de la serie

puede ser vista como una media de la muestra de una distribución de probabilidad

de una población subyacente en cada punto en el tiempo (Yaffee & McGee, 1999).

1.2.4 Clasificación de procesos estocásticos.

Una posible clasificación de los procesos estocásticos consistiría en analizar tanto

la variable temporal como las características de cada una de las Variables Aleatorias

involucradas. Concretamente:

Proceso estocástico continuo: en este caso, la variable t es continua, y cada

una de las variables de X(t) toman valores en un rango continuo.

Proceso estocástico discreto: en este caso, la variable t es continua, pero

las variables de X(t) son Variables Aleatorias discretas.

Secuencia aleatoria continua: la variable de indexación temporal es discreta,

pero las Variables Aleatorias involucradas toman valores en un rango

continuo. Típicamente lo denotaremos por X[n].

Secuencia aleatoria discreta: secuencia (como la anterior) de Variables

Aleatorias discretas. La denotaremos como la anterior (López, 2004).

Page 15: Series de tiempo: Modelos Heterocedásticos. Aplicación a

15 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

La forma en la que se pueden clasificar los procesos estocásticos depende

directamente en la función de distribución y sus momentos, a continuación se

describirán estas características.

1.2.5 Función de distribución.

La función de distribución de un proceso estocástico incluye todas las funciones de

distribución (univariado, multivariado) para cualquier subconjunto finito de variables

aleatorias del proceso (Casimiro, 2009):

𝐹[𝑋𝑡1 , 𝑋𝑡2 , 𝑋𝑡3 , … , 𝑋𝑡𝑛 ], ∀(𝑡1, 𝑡2, 𝑡3, … , 𝑡𝑛); 𝑑𝑜𝑛𝑑𝑒 𝑛 𝑒𝑠 𝑓𝑖𝑛𝑖𝑡𝑎

1.3 Momentos.

Resulta bastante complejo identificar las características que definen un proceso

estocástico a partir de solamente su función de distribución, entonces

identificaremos las características más esenciales a partir de los dos primeros

momentos.

1.3.1 Primer momento.

Se genera a partir del conjunto de medias que pertenecen al proceso estocástico

(conjunto de variables aleatorias)

𝐸(𝑋𝑡) = 𝜇𝑡 < ∞, 𝑡 = ±1,±2,±3,… (1)

1.3.2 Segundo momento.

Se genera a partir del conjunto de varianzas que pertenecen al proceso estocástico,

(conjunto de variables aleatorias) además de la relación entre cada par de variables

aleatorias que la definiremos como covarianza.

𝑉(𝑋𝑡) = 𝐸(𝑋𝑡 − 𝜇𝑡)2 = 𝜎𝑡

2, < ∞, 𝑡 = ±1, ±2,±3,… (2)

𝑐𝑜𝑣(𝑋𝑡 𝑋𝑠) = 𝐸[𝑋𝑡 − 𝜇𝑡][𝑋𝑠 − 𝜇𝑠] = 𝛾𝑡,𝑠, ∀𝑡, 𝑠(𝑡 ≠ 𝑠) (3)

En el caso normal, los dos primeros momentos caracterizan la distribución.

1.4 Procesos estacionarios.

Para algunos autores tales como Box y Jenkins (1976) esta propiedad supone

requerir al proceso un estado particular de “equilibrio estadístico”. La base del

análisis de series de tiempo es la estacionariedad, por ello es importante formalizar

dicho concepto (Cobis, 2011).

Page 16: Series de tiempo: Modelos Heterocedásticos. Aplicación a

16 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.4.1 Estacionariedad estricta.

Este tipo de estacionalidad conviene hablar de la función de distribución y lo

definiremos como un proceso estocástico donde, Xt, es estacionario en sentido

estricto si cumple la condición:

𝐹[𝑋𝑡1 , 𝑋𝑡2 , 𝑋𝑡3 , … , 𝑋𝑡𝑛 ] = 𝐹[𝑋𝑡1+𝑘 , 𝑋𝑡2+𝑘 , 𝑋𝑡3+𝑘 , … , 𝑋𝑡𝑛+𝑘 ], ∀(𝑡1, 𝑡2, 𝑡3, … , 𝑡𝑛) (4)

Lo que significa que, si la función de distribución de cualquier conjunto finito de n

variables aleatorias del proceso no sufre alguna alteración si se traslada k periodos

en el tiempo.

1.4.2 Estacionariedad débil.

Un proceso estocástico, Xt, es estacionario en covarianza si y solo si:

Las medias de las variables aleatorias un proceso son finitas y

constantes, es decir hablamos de una estacionariedad de primer

momento.

𝐸(𝑋𝑡) = 𝜇 < ∞; ∀𝑡 (5)

La dispersión de todas las variables aleatorias, en torno a la media

constante, es la misma para todas las variables del proceso a lo largo

del tiempo, es decir tienen la misma varianza y es finita.

𝑉(𝑋𝑡) = 𝐸(𝑋𝑡 − 𝜇𝑡)2 = 𝜎2, < ∞, ∀𝑡 (6)

Las autocovarianzas solo dependen de la distancia en los periodos de

dispersión entre las variables y no del tiempo, es decir, la covarianza

lineal entre dos variables aleatorias del proceso que disten k periodos

de tiempo es la misma que existe entre cualesquiera otras dos

variables que estén separadas también k periodos,

independientemente del momento concreto de tiempo al que estén

referidas (Casimiro, 2009).

𝐶𝑜𝑣(𝑋𝑡 𝑋𝑠) = 𝐸[𝑋𝑡 − 𝜇𝑡][𝑋𝑠 − 𝜇𝑠] = 𝛾|𝑡−𝑠| = 𝛾𝑘 < ∞, ∀𝑘 (7)

El proceso estocástico resultara estacionario débilmente si:

𝐸(𝑋𝑡) = 𝜇 < ∞; ∀𝑡 (8)

𝐶𝑜𝑣(𝑋𝑡 𝑋𝑠)= {𝑉(𝑋𝑡) = 𝜎

2 , < ∞, 𝑡 = 𝑠𝛾|𝑡−𝑠| = 𝛾𝑘 < ∞, 𝑡 ≠ 𝑠

(9)

Page 17: Series de tiempo: Modelos Heterocedásticos. Aplicación a

17 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Si un proceso estocástico es estacionario débilmente y si su distribución es Normal,

entonces es estacionario en sentido estricto (Casimiro, 2009).

1.5 Funciones de autocovarianzas y autocorrelación.

1.5.1 La función de autocovarianzas.

Un proceso estocástico estacionario es una función de k (número de periodos de

separación entre las variables) que recoge el conjunto de las autocovarianzas del

proceso y se denota por:

𝛾𝑘, 𝑘 = 1,2,3, …

Propiedades.

Para k=0 se incluye la varianza 𝛾0 = 𝐸[𝑋𝑡 − 𝜇 ][𝑋𝑡 − 𝜇 ] = 𝑉(𝑋𝑡)

Es función simétrica

𝛾𝑘 = 𝐸[𝑋𝑡 − 𝜇 ][𝑋𝑡+𝑘 − 𝜇 ] = 𝐸[𝑋𝑡 − 𝜇 ][𝑋𝑡−𝑘 − 𝜇 ] = 𝛾−𝑘

1.5.2 Función de Autocorrelación ACF.

Este coeficiente mide la fuerza de la dependencia lineal entre dos variables X e Y,

donde podemos evidenciar que este coeficiente se encuentra entre los valores -1 ≤

ρxt,xs ≤ 1, además ρxt,xs = ρxs,xt. Cabe hacer notar también que si las dos variables

aleatorias no están correlacionadas linealmente, los valores del coeficiente serán

ρxt,xs = 0. Además, si X e Y son variables aleatorias normales, entonces ρxt,xs = 0 si

y sólo si X e Y son independientes.

Los coeficientes de correlación entre dos variables aleatorias X e Y se define de la

siguiente manera:

𝜌𝑋𝑡 𝑋�̂� =∑ (𝑋𝑡−𝜇𝑡)𝑇𝑡,𝑠=1 (𝑋𝑠−𝜇𝑠)

√∑ (𝑋𝑡−𝜇𝑡)2∑ (𝑋𝑠−𝜇𝑠)2𝑇𝑡,𝑠=1

𝑇𝑡,𝑠=1

(10)

Una serie no es correlacionada formalmente si y solo si ρxt,xs = 0 para todo t,s > 0.

La representación de una correlación serial es congruente a la correlación de una

variable con ella misma en intervalos sucesivos de tiempo.

1.5.3 Ruido blanco.

Una serie de tiempo xt se denomina ruido blanco si {xt} es una secuencia de variables aleatorias independientes e idénticamente distribuidas con media y varianza finita. En particular, si xt tiene una distribución normal con media cero y varianza σ2, la serie se denomina ruido blanco gaussiano (TSAY, 2005).

Page 18: Series de tiempo: Modelos Heterocedásticos. Aplicación a

18 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Simbolizaremos al proceso ruido blanco como:

휀𝑡, ∀𝑡

휀𝑡 ~ 𝑁(0, 𝜎2)

𝐸(휀𝑡) = 0, ∀𝑡

𝑉(휀𝑡) = 𝜎2, ∀𝑡

𝐶𝑜𝑣(휀𝑡𝑖, 휀𝑡𝑗) = 0, ∀𝑡𝑖 ≠ 𝑡𝑗

1.6 Modelos para series de tiempo estacionarias.

1.6.1 Modelo lineal general.

Un proceso lineal general, {Xt}, es uno que se puede representar como una

combinación lineal ponderada de los términos de ruido blanco presentes y pasados

que se descompone la serie Xt en dos partes, una que recoge el patrón de

regularidad, o parte determinística, y otra parte puramente aleatoria, denominada

también innovación (Casimiro, 2009):

𝑋𝑡 = 휀𝑡Ψ1 + 휀𝑡−1Ψ2 + 휀𝑡−2Ψ3 +⋯

Dada una serie temporal de media cero, como el valor de X en el momento t

depende de su pasado, un modelo teórico capaz de describir su comportamiento

sería:

𝐹[𝑋𝑡−1 , 𝑋𝑡−2 , 𝑋𝑡−3 , … , ] + 휀𝑡 𝑡 = 1,2,3, … (11)

En el caso de los procesos estacionarios distribuidos normalmente con media cero,

podríamos señalar que en los procesos estocásticos bajo condiciones muy

generales, Xt se puede representar como combinación lineal de los valores pasados

infinitos de la variable X más un proceso ruido blanco:

𝑋𝑡 = Ψ1𝑋𝑡−1 +Ψ2𝑋𝑡−2 +Ψ3𝑋𝑡−3 +⋯+ 휀𝑡 𝑡 = 1,2,3, … (12)

Page 19: Series de tiempo: Modelos Heterocedásticos. Aplicación a

19 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.6.2 Parámetros del proceso:

a) En un proceso, es indispensable que el presente no venga determinado por el

futuro, es decir que no permita ser anticipado, para que luego el valor de X en el

momento t no pueda depender de valores futuros de X o de los procesos de ruido

blanco 휀𝑡.

b) Invertibilidad, en este caso, el presente dependa de forma convergente de su

propio pasado lo que involucra que la influencia de Xt−k en Xt ha de ir disminuyendo

conforme nos alejemos en el pasado.

Para el modelo general (12) cumplen la siguiente restricción:

∑Ψ𝑖2 < ∞

𝑖=1

El modelo (12) se puede reescribir en términos del operador de retardos:

𝑋𝑡 = 𝑋𝑡 (Ψ1𝐿 + Ψ2𝐿2 +Ψ3𝐿

3 +⋯) + 휀𝑡

(1 − Ψ1𝐿 − Ψ2𝐿2 −⋯ )𝑋𝑡 = 휀𝑡

Ψ(𝐿)𝑋𝑡 = 휀𝑡

𝑋𝑡 =1

Ψ(𝐿)휀𝑡

𝑋𝑡 = 𝜓(𝐿)휀𝑡

𝑋𝑡 = (1 + ψ1𝐿 + ψ2𝐿2 + ψ3𝐿

3 +⋯ )휀𝑡

𝑋𝑡 = 휀𝑡 + ψ1휀𝑡−1 + ψ2휀𝑡−2 +ψ3휀𝑡−3 +⋯ 𝑡 = 1,2,3, … (13)

Cumpliendo la restricción anteriormente descrita, observamos que el valor Xt se

puede simbolizar como la combinación lineal del ruido blanco 휀𝑡 y su pasado infinito.

Esta restricción implica que el valor presente depende de forma convergente de las

innovaciones pasadas, es decir, la influencia de la parte determinística 휀𝑡−𝑘 va

desapareciendo conforme se aleja en el pasado (Casimiro, 2009).

La teoría de polinomios nos proporciona una información valiosa ya que, bajo

condiciones muy generales, un polinomio de orden infinito puede aproximarse

mediante un cociente de la siguiente forma:

∏(𝐿) =𝜙𝑝(𝐿)

𝜃𝑞(𝐿)

Page 20: Series de tiempo: Modelos Heterocedásticos. Aplicación a

20 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Los polinomios 𝜙𝑝(𝐿)𝑦 𝜃𝑞(𝐿) representan los retardos infinitos

𝜙𝑝(𝐿) = 1 − 𝜙1(𝐿) − 𝜙2(𝐿2) − ⋯− 𝜙𝑝(𝐿

𝑝)

𝜃𝑞(𝐿) = 1 − 𝜃1(𝐿) − 𝜃2(𝐿2) − ⋯− 𝜃𝑞(𝐿

𝑞)

Reemplazando en el modelo (12) hallamos

∏(𝐿)𝑋𝑡 =𝜙𝑝(𝐿)

𝜃𝑞(𝐿)𝑋𝑡 = 휀𝑡

𝜙𝑝(𝐿)𝑋𝑡 = 𝜃𝑞(𝐿)𝑋𝑡

Teniendo en cuenta las restricciones anteriormente mencionadas, es momento de

representar de tres formas los modelos a partir de estos supuestos:

• Forma puramente autorregresiva (1), AR(∞): el valor actual de la variable se

representa en función de su propio pasado más un proceso ruido blanco presente.

• Forma puramente de medias móviles (2), MA(∞): el valor actual de la variable se

representa en función de todos los ruidos blancos presentes y pasados.

• forma finita:

𝜙𝑝(𝐿)𝑋𝑡 = 𝜃𝑞(𝐿)휀𝑡

(1 − 𝜙1(𝐿) − 𝜙2(𝐿2) − ⋯− 𝜙𝑝(𝐿

𝑝))𝑋𝑡 = (1 − 𝜃1(𝐿) − 𝜃2(𝐿2) − ⋯− 𝜃𝑞(𝐿

𝑞)) 휀𝑡

𝑋𝑡 = 𝜙1𝑋𝑡−1 + 𝜙2𝑋𝑡−2 +⋯+ 𝜙𝑝𝑋𝑡−𝑝 + 휀𝑡 − 𝜃1휀𝑡−1 − 𝜃2휀𝑡−2 −⋯− 𝜃𝑞휀𝑡−𝑞

𝑋𝑡 = 𝜙1𝑋𝑡−1 + 𝜙2𝑋𝑡−2 +⋯+ 𝜙𝑝𝑋𝑡−𝑝 ⏟

𝐹𝑜𝑟𝑚𝑎 𝐴𝑢𝑡𝑜𝑟𝑟𝑒𝑔𝑟𝑒𝑠𝑖𝑣𝑎+ 휀𝑡 − 𝜃1휀𝑡−1 − 𝜃2휀𝑡−2 −⋯− 𝜃𝑞휀𝑡−𝑞⏟

𝐹𝑜𝑟𝑚𝑎 𝑚𝑒𝑑𝑖𝑎𝑠 𝑚ó𝑣𝑖𝑙𝑒𝑠

1.7 Proceso lineal estacionario.

1.7.1 Estacionariedad de un proceso AR(1).

Teniendo en cuenta que en los modelos lineales se deben identificar ciertas

características para el cual un proceso contiene un valor pasado inmediato, es decir,

el primer retardo xt−1 es estadísticamente significativo en el pronóstico de xt

comúnmente se expresa como

Page 21: Series de tiempo: Modelos Heterocedásticos. Aplicación a

21 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝑋𝑡 = 𝜙0 + 𝜙1𝑋𝑡−1 + 휀𝑡 (14)

Este proceso representa uno de los modelos que con mayor frecuencia se usa para

el análisis de las series temporales, y usualmente se le denomina proceso

autorregresivo de primer orden AR(1), con lo que empezaremos la descripción del

proceso a partir de sus valores condicionados para media y varianzas a partir de

sus valores pasados.

𝐸(𝑋𝑡 |𝑋𝑡−1) = 𝜙0 + 𝜙𝑋𝑡−1 + 휀𝑡 (15)

𝑉𝑎𝑟(𝑋𝑡 |𝑋𝑡−1) = 𝑉𝑎𝑟(휀𝑡) = 𝜎𝜀𝑡2 (16)

Ahora podemos pensar en definir el proceso AR(1) como la adición de dos

componentes, una de las cuales se puede establecer a partir de la información del

pasado y la otra componente un término aleatorio con una estructura a precisar

(retomando la definición y propiedades de ruido blanco). Entonces, reescribiremos

el proceso autorregresivo de orden uno AR(1) como sigue:

𝑋𝑡 = 𝐸(𝑋𝑡 |𝑋𝑡−1) + 휀𝑡 (17)

Para cualquier valor del parámetro, el modelo AR(1) es estacionario si cumple

las siguientes condiciones.

Estacionario en media

𝐸(𝑋𝑡 ) = 𝐸(𝜙0 + 𝜙1𝑋𝑡−1 + 휀𝑡)

𝐸(𝑋𝑡 ) = 𝜙0 + 𝜙𝐸(𝑋𝑡−1)

La condición de estacionariedad se cumple cuando la media es constante y

finita

𝐸(𝑋𝑡 ) = 𝜙0 + 𝜙𝐸(𝑋𝑡−1)

(1 − 𝜙)𝐸(𝑋𝑡 ) = 𝜙0

𝐸(𝑋𝑡 ) =𝜙0

(1 − 𝜙)

El proceso es estacionario si |𝜙| < 1

Page 22: Series de tiempo: Modelos Heterocedásticos. Aplicación a

22 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Estacionario débilmente.

Si el proceso AR(1) presenta varianza constante en el tiempo, entonces se

dice estacionario en varianza

𝛾0 = 𝐸(𝑋𝑡 − 𝐸(𝑋𝑡 ))2 = 𝐸(𝜙𝑋𝑡−1 + 휀𝑡 − 0)

2 = 𝜙2𝑉(𝑋𝑡−1) + 𝜎2

Teniendo en cuenta la autocorrelación del proceso

𝐸(𝑋𝑡−1휀𝑡) = 𝐸[(𝑋𝑡−1 − 0)(휀𝑡 − 0)] = 𝑐𝑜𝑣(𝑋𝑡−1휀𝑡) = 0

Con la condición de estacionariedad

𝐸(𝑋𝑡−1)2 = 𝑉(𝑋𝑡−1) = 𝑉(𝑋𝑡) = 𝛾0

Donde

𝛾0 = 𝜙2𝛾0 + 𝜎

2

Entonces

𝛾0 =𝜎2

1 − 𝜙2

Para que se cumpla la condición de estacionariedad, la varianza debe ser constante

y finita si y solo si |𝜙|<1

La función de autocovarianza de k-esimo orden será:

𝛾𝑘 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡 )][𝑋𝑡−𝑘 − 𝐸(𝑋𝑡−𝑘 )] = 𝐸[(𝜙𝑋𝑡−1 + 휀𝑡)(𝑋𝑡−𝑘 )]

𝛾𝑘 = 𝜙𝐸(𝑋𝑡 𝑋𝑡−𝑘 ) + 𝐸(휀𝑡𝑋𝑡−𝑘 ) = 𝜙𝛾𝑘−1

Teniendo en cuenta que:

𝛾1 = 𝜙𝛾0

𝛾2 = 𝜙𝛾1

𝛾3 = 𝜙𝛾2

.

.

.

Page 23: Series de tiempo: Modelos Heterocedásticos. Aplicación a

23 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝛾𝑘 = 𝜙𝛾𝑘−1

Con lo que se puede deducir que el proceso es estacionario si y solo si |𝜙|< 1

Verificando que el proceso sea autorregresivo de orden 1 AR(1) y además

estacionario si y solo si |𝜙| < 1.

Y su función de autocovarianza estará definida a partir de:

𝛾𝑘 = {

𝜎2

1 − 𝜙2 𝑘 = 0

𝜙𝛾𝑘−1 𝑘 > 0

Definiendo la función de autocorrelación de un proceso autorregresivo de orden 1

AR(1) donde:

𝜌𝑘 = {1 𝑘 = 0𝜙𝜌𝑘−1 𝑘 > 0

𝜌𝑘 = 𝜙𝑘 𝑘 ≥ 0

Las características esenciales para un proceso AR(1) vienen dadas a partir de:

El modelo AR(1) es estacionario siempre que |𝜙| < 1.

La representación gráfica de la función de autocorrelación mostrará un

comportamiento hacia cero con todos sus valores positivos cuando 𝜙 > 0,

mientras que si 𝜙 < 0 se alternará el signo, comenzando con negativo

(Villavicencio, 2014).

1.7.2 Proceso autorregresivo de orden p: AR(2).

Consideraremos un modelo AR(2) de la forma

𝑋𝑡 = 𝜙0 + 𝜙1𝑋𝑡−1 +𝜙2𝑋𝑡−2 + 휀𝑡 (18)

Retomando lo aplicado en el modelo AR(1) resulta:

𝐸(𝑋𝑡 ) = 𝜇 =𝜙0

(1 − 𝜙1 − 𝜙2)

Con la condición que 𝜙1 + 𝜙2 ≠ 1 y de forma más conveniente expresaremos a

𝜙0 de la forma:

𝜙0 = (1 − 𝜙1 − 𝜙2)𝜇

Page 24: Series de tiempo: Modelos Heterocedásticos. Aplicación a

24 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Reemplazando y reescribiendo obtendremos

(𝑋𝑡 − 𝜇) = 𝜙1(𝑋𝑡−1 − 𝜇)+ 𝜙2(𝑋𝑡−2 − 𝜇) + 휀𝑡

Ahora consideraremos la estacionariedad del proceso AR(2), a partir del análisis de

su primer y segundo momento.

1.7.3 Primer momento del proceso.

Una característica que enmarca la estacionariedad de un proceso AR(2) consiste

en que se debe validar que la media sea constante y finita en el tiempo. En

términos del operador de retardo (L) se tiene:

𝐸((1 − 𝜙1𝐿 − 𝜙2𝐿2)𝑥𝑡) = 𝐸(𝑋𝑡)

(1 − 𝜙1𝐿 − 𝜙2𝐿2)𝐸(𝑋𝑡) = 0

𝐸(𝑋𝑡) =𝜙0

1 − 𝜙1𝐿 − 𝜙2𝐿2

𝐸(𝑋𝑡) = 0

1.7.4 Función de autocovarianza y autocorrelación.

Para que el proceso es estacionario, la función de autocovarianza y

autocorrelación no deben depender de un parámetro temporal.

𝛾𝑘 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡))(𝑋𝑡−𝑘 − 𝐸(𝑋𝑡−𝑘))]

𝛾𝑘 = 𝐸[(𝑋𝑡)(𝑋𝑡−𝑘)]

𝛾𝑘 = 𝐸[(𝜙1𝑋𝑡−1 + 𝜙2𝑋𝑡−2 + 휀𝑡)(𝑋𝑡−𝑘)]

𝛾𝑘 = 𝜙1𝛾𝑘−1 + 𝜙2𝛾𝑘−2

Donde 𝛾0:

𝛾0 = 𝐸(𝑋𝑡 − 𝐸(𝑋𝑡))2= 𝐸(𝑋𝑡)

2

𝛾0 = (𝜙1𝑋𝑡−1 + 𝜙2𝑋𝑡−2 + 휀𝑡)2

𝛾0 = 𝜙12𝛾0 + 𝜙2

2𝛾0 + 𝜎2 + 2𝜙1𝜙2𝛾1

𝛾0 − 𝜙12𝛾0 − 𝜙2

2𝛾0 = 𝜎2 + 2𝜙1𝜙2𝛾1

Page 25: Series de tiempo: Modelos Heterocedásticos. Aplicación a

25 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝛾0 =𝜎2 + 2𝜙1𝜙2𝛾1

1 − 𝜙12 − 𝜙2

2

Y ahora 𝛾1:

𝛾1 = 𝐸[(𝑋𝑡)(𝑋𝑡−1)]

𝛾1 = 𝐸[(𝜙1𝑋𝑡−1 + 𝜙2𝑋𝑡−2 + 휀𝑡)(𝑋𝑡−1)]

𝛾1 = 𝜙1𝐸(𝑋𝑡−1)2 + 𝜙2𝐸(𝑋𝑡−2 𝑋𝑡−1) + 𝐸(휀𝑡𝑥𝑡−1)

𝛾1 = 𝜙1𝛾0 + 𝜙2𝛾1

𝛾1 =𝜙1𝛾01 − 𝜙2

El proceso es estacionario en sentido débil si y solo si se cumple la condición:

1 − 𝜙12 − 𝜙2

2 ≠ 0; 𝑦 𝜙2 ≠ 1.

Donde su función de covarianza estará generada por:

𝛾𝑘 =

{

𝜎2 + 2𝜙1𝜙2𝛾1

1 − 𝜙12 − 𝜙2

2 𝑘 = 0

𝜙1𝛾01 − 𝜙2

𝑘 = 1

𝜙1𝛾𝑘−1 + 𝜙2𝛾𝑘−2 𝑘 > 1

La función de autocorrelación de un proceso autorregresivo AR(2), definida por:

𝜌𝑘 = {

1 𝑘 = 0𝜙1

1 − 𝜙2 𝑘 = 1

𝜙1𝜌𝑘−1 + 𝜙2𝜌𝑘−2 𝑘 > 1

Para concluir con los procesos AR(p), se muestran las condiciones de

estacionariedad para el modelo AR(1) y AR(2).

Modelo AR(1): De la ecuación expresada por el operador de retado

(1 − 𝜙𝐿)𝑋𝑡 = 휀𝑡

Polinomio autorregresivo:

𝜙1(𝐿) = 1 − 𝜙𝐿

Page 26: Series de tiempo: Modelos Heterocedásticos. Aplicación a

26 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Raíces: 1 − 𝜙𝐿 = 0

𝐿 =1

𝜙

La condición de estacionariedad para el modelo AR(1) es:

|𝐿| = |1

𝜙| > 1

|𝜙| < 1

Modelo AR(2): De la ecuación expresada por el operador de retado

(1 − 𝜙1𝐿 − 𝜙2𝐿2)𝑋𝑡 = 휀𝑡

Polinomio autorregresivo:

𝜙2(𝐿) = 1 − 𝜙1𝐿 − 𝜙2𝐿2

Raíces: 1 − 𝜙1𝐿 − 𝜙2𝐿2 = 0

𝐿1, 𝐿2 =𝜙1 ±√𝜙1

2 + 4𝜙2−2𝜙2

La condición de estacionariedad para el modelo AR(2) es:

|𝐿1| = |𝜙1 + √𝜙1

2 + 4𝜙2−2𝜙2

| > 1 𝑦 |𝐿2| = |𝜙1 −√𝜙1

2 + 4𝜙2−2𝜙2

| > 1

En la literatura de series de tiempo, las dos de las soluciones se conocen como las

raíces características del modelo de AR(2). Se Denotan las dos soluciones por ω1

y ω2. Si para los valores de ωi que pertenecen al conjunto de los reales, entonces

la ecuación de diferencia de segundo orden del modelo, se puede factorizar como

(1 - ω1L) (1 - ω2L) y el modelo AR(2) puede ser considerado como un modelo AR(1),

funcionando por encima de otro modelo AR(1). La función de autocorrelación (ACF)

de 𝑋𝑡 es entonces una mezcla de dos degradaciones exponenciales.

Si 𝜙12 + 4𝜙2 < 0, entonces ω1 y ω2 son números complejos (llamados un par

complejo conjugado), y un gráfico de la ACF de mostrarían una imagen de

amortiguación ondas de seno y coseno. En aplicaciones comerciales y económicas,

las raíces características complejas son importantes. Ellas dan lugar al

Page 27: Series de tiempo: Modelos Heterocedásticos. Aplicación a

27 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

comportamiento de los ciclos económicos. Es entonces común para los modelos de

series de tiempo económico tener raíces características de valor complejo (TSAY,

2005).

1.8 La estimación de los procesos autorregresivos.

Bajo el supuesto de un orden conocido p tenemos diferentes posibilidades para

estimar los parámetros:

Si se conoce la distribución del proceso de ruido blanco que genera el

proceso AR(p), los parámetros se puede estimar utilizando los métodos de

máxima verosimilitud (MV).

Los parámetros también pueden ser estimados con el método de momentos

mediante el uso de las ecuaciones de Yule-Walker.

Si el orden de un proceso AR es desconocido, se puede estimar con la ayuda de

criterios de información. Para este fin, los procesos AR con aumentos sucesivos de

orden p = 1,2, ..., pmax serán estimados. Por último, el orden p* se minimiza para lo

cual se elige que el criterio correspondiente (Kirchgässner & Wolters, 2007).

A menudo se utilizan los siguientes criterios:

El error de predicción final, que se remonta a HIROTUGU Akaike (1969)

𝐸𝐹𝑃 = 𝑇 + 𝑚

𝑇 −𝑚 1

𝑇 ∑(�̂�𝑡

(𝑝))2𝑇

𝑡=1

En estrecha relación con esto está el criterio de información de Akaike (AIC)

Akaike (1974)

𝐴𝐼𝐶 = 𝑙𝑛1

𝑇∑(�̂�𝑡

(𝑝))2𝑇

𝑡=1

+ 𝑚2

𝑇

𝐴𝐼𝐶 = − ln(𝑓𝑢𝑛𝑐𝑖ó𝑛 𝑑𝑒 𝑣𝑒𝑟𝑜𝑠𝑖𝑚𝑖𝑙𝑖𝑡𝑢𝑑) + 2𝑚

Page 28: Series de tiempo: Modelos Heterocedásticos. Aplicación a

28 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Las alternativas son el criterio Bayesiano de Gedeón Schwarz (1978)

𝐶𝑆 = 𝑙𝑛1

𝑇∑(�̂�𝑡

(𝑝))2𝑇

𝑡=1

+ 𝑚𝑙𝑛𝑇

𝑇

así como el criterio desarrollado por EDWARD J. Hannon y BARRY G.

QUINN (1979)

𝐻𝑄 = 𝑙𝑛1

𝑇∑(�̂�𝑡

(𝑝))2𝑇

𝑡=1

+ 𝑚2𝑙𝑛𝑙𝑛(𝑇)

𝑇

Los valores �̂�𝑡 son los residuos estimados del proceso AR(p), mientras que m es el

número de parámetros estimados. Si se estima que el término constante, también,

m = p + 1 para un proceso AR(p). Estos criterios se basan siempre en el mismo

principio: Se componen de una parte, la suma de residuos al cuadrado (o su

logaritmo), que disminuye cuando el número de parámetros estimados aumenta, y

de un “término de castigo” lo que aumenta cuando el número de los parámetros

estimados se incrementa. Mientras que los dos primeros criterios sobrestiman el

verdadero orden asintóticamente, los otros dos criterios estiman que el verdadero

orden del proceso consistente (Kirchgässner & Wolters, 2007).

1.8.1 Proceso de Medias Móviles de orden 1, MA(1):

Pasamos ahora a otra clase de modelos simples que también son útiles en el

modelado de retornos de en una serie financiera. Estos modelos se llaman modelos

de promedios móviles (MA). Hay varias maneras de introducir modelos MA. Un

enfoque consiste en tratar el modelo como una simple extensión de la serie de ruido

blanco. Otro enfoque es tratar el modelo como modelo AR de orden infinito con

algunas limitaciones de los parámetros (TSAY, 2005).

Enfocaremos nuestra atención en el modelo de promedios móviles de orden q.

𝑋𝑡 = 휀𝑡 – 𝜃1휀𝑡−1 – 𝜃2휀𝑡−2 – … – 𝜃𝑞휀𝑡−𝑞

Lo llamaremos como una serie con media móvil de orden q y abreviaremos su

nombre como MA(q)

Con el fin de verificar si el proceso MA(1) es estacionario, se verifican los momentos

uno y dos del proceso

Page 29: Series de tiempo: Modelos Heterocedásticos. Aplicación a

29 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝑋𝑡 = 휀𝑡 – 𝜃1휀𝑡−1

Esperanza del proceso.

A partir de las condiciones del proceso MA(1) su valor esperado será:

𝐸(𝑋𝑡) = 𝐸(휀𝑡 − 𝜃휀𝑡−1)

𝐸(𝑋𝑡) = 𝐸(휀𝑡) − 𝜃𝐸(휀𝑡−1) = 0

Concluimos que el proceso MA(1) es estacionario en media.

Función de autocovarianza y autocorrelación.

Para que un proceso sea estacionario, debe cumplir que la función de

autocovarianza y autocorrelación no dependan del tiempo.

Para 𝛾0 se tiene,

𝛾0 = 𝐸(𝑋𝑡 − 𝐸(𝑋𝑡))2= 𝐸(𝑋𝑡)

2

𝛾0 = 𝐸(휀𝑡 − 𝜃휀𝑡−1)2

𝛾0 = 𝐸(휀𝑡)2 + 𝜃2𝐸(휀𝑡−1)

2 − 2𝜃𝐸(휀𝑡휀𝑡−1)

𝛾0 = 𝜎2 + 𝜃2𝜎2 − 0

𝛾0 = (1 + 𝜃2)𝜎2

Para 𝛾1 y 𝛾2 se tiene,

𝛾1 = 𝐸[(휀𝑡 − 𝜃휀𝑡−1)(휀𝑡−1 − 𝜃휀𝑡−2)]

𝛾1 = 𝐸(휀𝑡휀𝑡−1) − 𝜃𝐸(휀𝑡−1)2 − 𝜃𝐸(휀𝑡휀𝑡−2) + 𝜃

2𝐸(휀𝑡−1휀𝑡−2) = −𝜃𝜎2

𝛾2 = 𝐸(𝑋𝑡 − 𝐸(𝑋𝑡))(𝑋𝑡−2 − 𝐸(𝑋𝑡−2)) = 𝐸[(휀𝑡 − 𝜃휀𝑡−1)(휀𝑡−2 − 𝜃휀𝑡−3)]

𝛾2 = 𝐸(휀𝑡휀𝑡−2) − 𝜃𝐸(휀𝑡−1휀𝑡−2) − 𝜃𝐸(휀𝑡휀𝑡−3) + 𝜃2𝐸(휀𝑡−1휀𝑡−3)

𝛾2 = 0

Luego, la función de autocovarianzas de un MA(1) es:

Page 30: Series de tiempo: Modelos Heterocedásticos. Aplicación a

30 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝛾𝑘 = {(1 + 𝜃2)𝜎2 𝑘 = 0

−𝜃𝜎2 𝑘 = 10 𝑘 > 1

La función de autocovarianzas es finita y depende sólo de k y no alguna

condición temporal, para cualquier valor del parámetro 𝜃.

La funcion de autocorrelación de un proceso MA(1) es:

𝜌𝑘 = {

1 𝑘 = 0−𝜃

1 + 𝜃2 𝑘 = 1

0 𝑘 > 1

La funcion de autocorrelacion ACF es una herramienta de gran utilidad en la

identificacion del orden de un modelo de medias moviles. La ACF de un MA(q) se

anula despues del retardo q, es decir, se anula (ρk = 0 para k > q), entonces se tiene

que el proceso puede ser modelizado mediante un proceso de medias moviles de

orden q, MA(q)

1.8.2 Proceso de Medias Móviles de orden 2, MA(2):

Para analizar el proceso se tendrá en cuenta la ecuación:

𝑋𝑡 = 휀𝑡 − 𝜃1휀𝑡−1 − 𝜃2휀𝑡−2 (19)

Donde 휀𝑡 ~ 𝑅𝐵(0, 𝜎2)

Valor esperado.

De acuerdo a la ecuación (19) el proceso tiene media:

𝐸(𝑋𝑡) = 𝐸(휀𝑡 − 𝜃1휀𝑡−1 − 𝜃2휀𝑡−2) = 0

Función de autocovarianza y autocorrelación.

Para 𝛾0 se tiene,

𝛾0 = 𝐸(𝑋𝑡 − 𝐸(𝑋𝑡))2= 𝐸(𝑋𝑡)

2

𝛾0 = 𝐸(휀𝑡 − 𝜃1휀𝑡−1 − 𝜃2휀𝑡−2 )2

𝛾0 = 𝜎2 + 𝜃1

2𝜎2 + 𝜃22𝜎2

𝛾0 = (1 + 𝜃12 + 𝜃2

2)𝜎2

La expresión para 𝛾1:

Page 31: Series de tiempo: Modelos Heterocedásticos. Aplicación a

31 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝛾1 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡))(𝑋𝑡−1 − 𝐸(𝑋𝑡−2))] = 𝐸(𝑋𝑡𝑋𝑡−1)

𝛾1 = 𝐸[(휀𝑡 − 𝜃1휀𝑡−1 − 𝜃2휀𝑡−2)(휀𝑡−1 − 𝜃1휀𝑡−2 − 𝜃2휀𝑡−3)]

𝛾1 = −𝜃1𝜎2 + 𝜃1𝜃2𝜎

2 = (−𝜃1 + 𝜃1𝜃2)𝜎2

La expresión para 𝛾2:

𝛾2 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡))(𝑋𝑡−2 − 𝐸(𝑋𝑡))] = 𝐸(𝑋𝑡𝑋𝑡−2)

𝛾2 = 𝐸[(휀𝑡 − 𝜃1휀𝑡−1 − 𝜃2휀𝑡−2)(휀𝑡−2 − 𝜃1휀𝑡−3 − 𝜃2𝜀𝑡−4)]

𝛾2 = −𝜃2𝜎2

Para 𝛾3 se tiene,

𝛾3 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡))(𝑋𝑡−3 − 𝐸(𝑋𝑡))] = 𝐸(𝑋𝑡𝑋𝑡−3)

𝛾3 = 𝐸[(휀𝑡 − 𝜃1휀𝑡−1 − 𝜃2휀𝑡−2)(휀𝑡−3 − 𝜃1휀𝑡−4 − 𝜃2휀𝑡−5)]

𝛾3 = 0

La función de autocovarianzas de un MA(2) es:

𝛾𝑘 = {

𝛾0 = (1 + 𝜃12 + 𝜃2

2)𝜎2 𝑘 = 0

𝛾1 = (−𝜃1 + 𝜃1𝜃2)𝜎2 𝑘 = 1

𝛾2 = −𝜃2𝜎2 𝑘 = 2

𝑦 𝑘 > 2

La función de autocorrelación de un MA(2) es:

𝜌𝑘 =

{

𝜌1 =

−𝜃1 + 𝜃1𝜃2

1 + 𝜃12 + 𝜃2

2 𝑘 = 1

𝜌2 =−𝜃2

1 + 𝜃12 + 𝜃2

2 𝑘 = 2

𝜌3 = 0 𝑘 > 2

Por lo tanto, el modelo MA(q) no es invertible para cualquier valor del vector de

parámetros de medias móviles, sino que estos tendrán que cumplir algunas

restricciones. Derivar estas restricciones fue muy sencillo para el MA(1), pero se

complica mucho al aumentar el orden del modelo de medias móviles. El siguiente

Page 32: Series de tiempo: Modelos Heterocedásticos. Aplicación a

32 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

teorema proporciona condiciones necesarias y suficientes para que el modelo de

medias móviles sea invertible (Casimiro, 2009).

Modelo MA(1): De la ecuación expresada por el operador de retado

𝑋𝑡 = (1 − 𝜃𝐿)휀𝑡

Polinomio medias móviles:

𝜃1(𝐿) = 1 − 𝜃𝐿

Raíces: 1 − 𝜃𝐿 = 0

𝐿 =1

𝜃

La condición de invertibilidad para el modelo MA(1) es:

|𝐿| = |1

𝜃| > 1 ⟹ |𝜃| < 1

Modelo MA(2): De la ecuación expresada por el operador de retado

𝑋𝑡 = (1 − 𝜃1𝐿 − 𝜃2𝐿2)휀𝑡

Polinomio de medias móviles:

𝜃2(𝐿) = 1 − 𝜃1𝐿 − 𝜃2𝐿2

Raíces: 1 − 𝜃1𝐿 − 𝜃2𝐿2 = 0

𝐿1, 𝐿2 =𝜃1 ±√𝜃1

2 + 4𝜃2−2𝜃2

La condición de invertibilidad para el modelo MA(2) es:

|𝐿1| = |𝜃1 +√𝜃1

2 + 4𝜃2−2𝜃2

| > 1 𝑌 |𝐿2| = |𝜃1 −√𝜃1

2 + 4𝜃2−2𝜃2

| > 1

1.9 Procesos autorregresivos de Medias Móviles:ARMA(p,q).

Un modelo ARMA combina las ideas de los modelos AR y MA en una forma

compacta de manera que el número de parámetros usados se mantiene pequeño.

Para la serie de retorno en finanzas, la posibilidad de utilizar modelos ARMA es

baja. Sin embargo, el concepto de modelos ARMA es altamente relevante en el

modelado de la volatilidad (TSAY, 2005).

Page 33: Series de tiempo: Modelos Heterocedásticos. Aplicación a

33 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

La notación de un proceso ARMA(p, q) será de la siguiente manera:

𝑋𝑡 = 𝜙1𝑋𝑡−1 +⋯+ 𝜙𝑝𝑋𝑡−𝑝 + 𝑧𝑡 + 𝜃1휀𝑡−1 +⋯+ 𝜃𝑞휀𝑡−𝑞 (20)

휀𝑡 ~ 𝑅𝐵(0, 𝜎2)

El modelo en términos del operador de retardos queda de la siguiente manera:

(1 − 𝜙1𝐿 −⋯− 𝜙𝑝𝐿𝑝)𝑋𝑡 = (1 − 𝜃1𝐿 −⋯− 𝜃𝑞𝐿

𝑞)휀𝑡

𝜙𝑝(𝐿)𝑋𝑡 = 𝜃𝑞(𝐿)휀𝑡

Donde 𝜙𝑝(𝐿) es el polinomio autorregresivo y 𝜃𝑞(𝐿) es el polinomio de promedios

móviles.

Las condiciones de invertibilidad del modelo ARMA(p, q) vienen impuestas por la

parte de medias móviles, dado que la parte autorregresiva finita siempre es

invertible porque está directamente escrita en forma autorregresiva (Casimiro,

2009).

El modelo ARMA(p, q) va a compartir las características de los modelos AR(p) y

MA(q) ya que contiene ambas estructuras a la vez. El modelo ARMA(p, q) tiene

media cero, varianza constante y finita y una función de autocovarianzas infinita. La

función de autocorrelación es infinita decreciendo rápidamente hacia cero pero sin

truncarse (Casimiro, 2009).

1.9.1 Proceso Autorregresivode Medias Móviles de orden (1, 1), ARMA(1, 1):

El modelo ARMA(1, 1) tiene la siguiente estructura:

𝑋𝑡 = 𝜙𝑋𝑡−1 + 휀𝑡 − 𝜃휀𝑡−1 (21)

휀𝑡 ~ 𝑅𝐵(0, 𝜎2), |𝜙| < 1 y 𝜃 ∈ ℝ

Donde 𝑋𝑡 esta en función de su pasado hasta el primer retardo, la innovación

contemporánea y el pasado de la innovación hasta el retardo 1, además.

Con el fin de verificar si el proceso ARMA(1, 1) es estacionario, se verifican las

pruebas de media y covarianza constantes:

Valor esperado.

A partir de sus elementos característicos tenemos:

Page 34: Series de tiempo: Modelos Heterocedásticos. Aplicación a

34 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝐸(𝑋𝑡) = 𝐸(𝜙𝑋𝑡−1 + 휀𝑡 − 𝜃휀𝑡−1)

𝐸(𝑋𝑡) = 𝐸(𝜙𝑋𝑡−1)

𝐸(𝑋𝑡) = 𝜙𝐸(𝑋𝑡−1) = 0

Función de autocovarianza y autocorrelación.

Para que un proceso sea estacionario, debe cumplir que la función de

autocovarianza y autocorrelación no dependan del tiempo.

Para 𝛾0 se tiene,

𝛾0 = 𝐸(𝑋𝑡 − 𝐸(𝑋𝑡))2= 𝐸(𝑋𝑡)

2

𝛾0 = 𝐸(𝜙𝑋𝑡−1 + 휀𝑡 − 𝜃휀𝑡−1)2

𝛾0 = 𝜙2𝛾0 + 𝜎

2 + 𝜃2𝜎2 − 2𝜙𝜃𝜎2

𝛾0 =(1 + 𝜃2 − 2𝜙𝜃)𝜎2

1 − 𝜙2

Para 𝛾1 se tiene,

𝛾1 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡))(𝑋𝑡−1 − 𝐸(𝑋𝑡−1))] = 𝐸(𝑋𝑡𝑋𝑡−1)

𝛾1 = 𝐸[(𝜙𝑋𝑡−1 + 휀𝑡 − 𝜃휀𝑡−1)𝑋𝑡−1]

𝛾1 = 𝜙𝛾0 − 𝜃𝜎2

Para 𝛾2 se tiene,

𝛾2 = 𝐸[(𝑋𝑡 − 𝐸(𝑋𝑡))(𝑋𝑡−2 − 𝐸(𝑋𝑡−2))] = 𝐸(𝑋𝑡𝑋𝑡−2)

𝛾2 = 𝐸[(𝜙𝑋𝑡−1 + 휀𝑡 − 𝜃휀𝑡−1)𝑋𝑡−2]

𝛾2 = 𝜙𝛾1

La función de autocovarianzas de un ARMA(1, 1) es:

𝛾𝑘 =

{

𝛾0 =

(1 + 𝜃12 − 2𝜙𝜃)𝜎2

1 − 𝜙2 𝑘 = 0

𝛾1 = 𝜙𝛾0 − 𝜃𝜎2 𝑘 = 1

𝛾ℎ = 𝜙𝛾𝑘−1 𝑘 > 1

La función de autocorrelación de un ARMA(1, 1) es:

Page 35: Series de tiempo: Modelos Heterocedásticos. Aplicación a

35 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝜌𝑘 =

{

𝜌1 = 𝜙 −𝜃𝜎2

𝛾0 𝑘 = 0

𝜌𝑘 = 𝜙 𝜌𝑘−1 𝑘 > 1

Como se puede observar, la varianza cuenta con una parte que proviene de la parte

de medias moviles, otra que proviene de la parte autorregresiva y una tercera que

es la interaccion entre ambas partes del modelo. La autocovarianza de orden 1, 𝛾1, es la suma de la autocovarianza de orden 1 de la parte AR(1) y de la autocovarianza

de orden 1 de la parte MA(1). A partir del retardo 1, la parte medias móviles del

modelo no aparece de forma explicita si aparece, en 𝜌1 en la ACF, dependiendo

esta solo de la estructura autorregresiva. Esta ACF es una funcion infinita, que

depende de los parametros AR, φ, y MA, θ, hasta k = 1 y luego decrece

exponencialmente, siguiendo la estructura marcada por la parte autorregresiva de

primer orden. Para comprobar estacionariedad e invertibilidad del proceso ARMA(1,

1), se deben calcular las raíces del polinomio autorregresivo y las raíces del

polinomio medias móviles, respectivamente (Casimiro, 2009):

Raíces del polinomio autorregresivo:

1 − 𝜙𝐵 = 0 ⟹ 𝐵 =1

𝜙 ⟹ |𝐵| = |

1

𝜙| ⟹ |𝜙| < 1

Raíces del polinomio medias móviles:

1 − 𝜃𝐵 = 0 ⟹ 𝐵 =1

𝜃 ⟹ |𝐵| = |

1

𝜃| ⟹ |𝜃| < 1

1.9.2. Modelos lineales no estacionarios.

En finanzas, las series de tiempo de interés, tasas de cambio, o series de precios

de un activo son de gran interés para este tipo de procesos no estacionarios. Para

una serie de precios de algún activo en particular, la no estacionariedad es debida

principalmente al hecho de que no hay un nivel fijo de precios (Monsalve, 2011).

Los modelos anteriomente trabajados, tienen la caractestica de tener media y

varianza constantes y las autocovarianzas no dependen del tiempo sino sólo de los

retardos. En las series de tiempo económicas, que es el principal tema de estudio

en el presente trabajo, en la mayoría de los casos no se comportan de forma

estacionaria, ya sea porque suelen ir cambiando de nivel en el tiempo o porque la

varianza no es constante. A este tipo de proceso se les considera procesos

integrados (Villavicencio, 2014).

Page 36: Series de tiempo: Modelos Heterocedásticos. Aplicación a

36 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.9.3. Proceso Autorregresivo Integrado de Media Móvil ARIMA(p, d, q).

La publicación de G. P. E. Box y G. M. Jenkins Time Series Analysis: Forecasting

and Control, op. cit., marcó el comienzo de una nueva generación de herramientas

de pronóstico. Popularmente conocida como metodología de Box-Jenkins (BJ), pero

técnicamente conocida como metodología ARIMA, el interés de estos métodos de

pronósticos no está en la construcción de modelos uniecuacionales o de ecuaciones

simultáneas, sino en el análisis de las propiedades probabilísticas, o estocásticas,

de las series de tiempo económicas por sí mismas según la filosofía de que los

datos hablen por sí mismos. A diferencia de los modelos de regresión, en los cuales

se explica por las k regresoras X1, X2, X3,. . ., Xk, en los modelos de series de tiempo

del tipo BJ, 𝑋𝑡 se explica por valores pasados o rezagados de sí misma y por los

términos de error estocásticos. Por esta razón, los modelos ARIMA reciben algunas

veces el nombre de modelos ateóricos —porque no se derivan de teoría económica

alguna—, y las teorías económicas a menudo son la base de los modelos de

ecuaciones simultánea (Gujarati & Porter, 2009).

Denominaremos proceso ARIMA(p, d, q), al modelo definido de la siguiente forma:

(1 − 𝜙1𝐿 −⋯− 𝜙𝑝𝐿𝑝)(1 − 𝐿)𝑑𝑋𝑡 = 𝑐 + (1 − 𝜃1𝐿 −⋯− 𝜃𝑞𝐿

𝑞)휀𝑡 (22)

El modelo (22) se denomina modelo Autorregresivo Integrado de Medias Moviles de

Orden (p,d,q) o ARIMA(p, d, q) , donde p es el orden del polinomio autorregresivo

estacionario, d es el orden de integración de la serie, es decir, el numero de

diferencias que hay que tomar a la serie para que sea estacionaria, y q es el orden

del polinomio de medias moviles invertible (Casimiro, 2009).

𝜙𝑝(𝐿)∇𝑑𝑋𝑡 = 𝑐 + 𝜃𝑞(𝐿)휀𝑡 (23)

En este caso el término integrado, indique que si se nombra 𝜔𝑡 = ∇𝑑𝑋𝑡 al proceso

estacionario, 𝑥𝑡 se obtiene como suma (integración) de 𝜔𝑡. En efecto, si

𝜔𝑡 = (1 − 𝐿)𝑋𝑡

como:

(1 − 𝐿)−1 = 1 + 𝐿 + 𝐿2 + 𝐿3 +⋯+ 𝐿𝑘

Page 37: Series de tiempo: Modelos Heterocedásticos. Aplicación a

37 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Entonces:

𝑋𝑡 = (1 − 𝐿)−1𝜔𝑡 = ∑ 𝜔𝑡

𝑡𝑗=−∞ (24)

A continuación se presentan dos modelos ARIMA sencillos:

1.9.4 Modelo de Paseo Aleatorio.

El paseo aleatorio es un modelo AR(1) con parámetro 𝜙 = 1:

𝑋𝑡 = 𝑋𝑡−1 + 휀𝑡 (25)

∇𝑋𝑡 = 휀𝑡 (26)

En este modelo el valor de 𝑥 en el tiempo 𝑡 es igual a su valor en el tiempo 𝑡 − 1

más una perturbación aleatoria. El paseo aleatorio no es estacionario porque la raíz

del polinomio AR no tiene módulo mayor que la unidad (González, 2009):

1 − 𝐿 = 0 ⟹ 𝐿 = 1

Como la primera diferencia de la serie ∇𝑋𝑡 es un ruido blanco, se tiene que 𝑋𝑡 es un

proceso integrado de orden 1. El proceso es no estacionario puesto que la raíz del

polinomio asociado es igual a la unidad y la serie va cambiando de forma estocástica

a lo largo del tiempo. El paseo aleatorio hace parte de los procesos no estacionarios

de raíces unitarias.

La función de autocovarianza y autocorrelación esta dada por:

𝛾𝑘 = 𝑡𝜎2 y 𝜌𝑘 =

𝑡

√𝑡(𝑡+ℎ) para 𝑘 > 0

1.9.5 Modelo de Paseo Aleatorio con deriva.

El paseo aleatorio con deriva resulta de añadir una constante al modelo anterior.

𝑋𝑡 = 𝑋𝑡−1 + 휀𝑡 + 𝛿 (27)

∇𝑋𝑡 = 휀𝑡 + 𝛿 (28)

En este caso, la inclusión de una constante en el modelo implica la inclusión de una

tendencia determinista con pendiente 𝛿, junto con la tendencia estocástica

(González, 2009).

Page 38: Series de tiempo: Modelos Heterocedásticos. Aplicación a

38 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.9.6 Modelos Heterocedásticos Condicionales.

Conocer la volatilidad es muy importante en muchas áreas. Por ejemplo, existe una

enorme cantidad de trabajo en econometría sobre la variabilidad de la inflación a lo

largo del tiempo. Para algunas personas con poder de decisión, la inflación en sí

misma quizá no sea dañina, pero no es deseable su variabilidad porque dificulta la

planificación financiera. Sucede lo mismo con los importadores, exportadores y

comerciantes que acuden a los mercados de cambio de divisas, pues la variabilidad

de las tasas de cambio representa grandes pérdidas o ganancias. A los

inversionistas de las casas de bolsa obviamente les interesa la volatilidad de los

precios de las acciones, pues una gran volatilidad puede significar enormes

pérdidas o ganancias y, en consecuencia, provocar mayor incertidumbre. En los

mercados volátiles, a las compañías les resulta difícil capitalizarse en los mercados

de capital.

Una característica de la mayoría de estas series de tiempo financieras consiste en

que en su forma de nivel son no estacionarias. En consecuencia, en vez de modelar

las series de tiempo financieras en su forma de nivel, ¿por qué no hacer los modelos

de sus primeras diferencias? Sin embargo, estas primeras diferencias suelen

presentar amplias variaciones, o volatilidad, lo cual indica que la varianza de las

series de tiempo financieras se modifica con el tiempo. ¿Cómo podemos determinar

el modelo de dicha “variación cambiante”? En estos casos es cuando resulta

práctico el llamado modelo de heteroscedasticidad condicional autorregresivo

(ARCH), que originalmente desarrolló Engle. Como su nombre lo indica, la

heteroscedasticidad, o varianza desigual, puede tener una estructura autorregresiva

en la que la heteroscedasticidad observada a lo largo de diferentes periodos quizá

esté autocorrelacionada (Gujarati & Porter, 2009).

1.9.7 Modelo autorregresivo condicional heterocedástico de orden p:

ARCH(p).

Engle (1982) propuso por primera vez el modelo de heteroscedasticidad condicional

autorregresiva (ARCH) para modelar la varianza cambiante de una serie de tiempo.

Como se discutió en la sección anterior, la serie de retorno de un activo financiero,

por ejemplo {𝑋𝑡}, es a menudo una secuencia de correlación serial con media cero,

como se exhibe agrupamiento de la volatilidad. Esto sugiere que la varianza

condicional de 𝑋𝑡 rentabilidades pasadas no es constante. La varianza condicional,

también conocida como la volatilidad condicional, de 𝑋𝑡 se denota con el subíndice

t - 1 significa que el acondicionado está sobre los retornos en el tiempo t - 1. Cuando

𝑋𝑡 está disponible, el retorno al cuadrado proporciona un estimador insesgado. Una

Page 39: Series de tiempo: Modelos Heterocedásticos. Aplicación a

39 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

serie de grandes rendimientos al cuadrado puede prever un período relativamente

volátil. Por el contrario, una serie de pequeños rendimientos al cuadrado puede

prever un período relativamente tranquilo. El modelo ARCH es formalmente un

modelo regresión con la volatilidad condicional como variable de respuesta y el

pasado se queda del retorno al cuadrado como las covariables. Por ejemplo, el

proceso ARCH(1) supone que la serie de retorno {𝑋𝑡} se genera como sigue (Cryer

& Chan, 2008):

Un proceso {𝑦𝑡} es un proceso ARCH(p) si (Engle, 1982):

𝑦𝑡|𝜓𝑡−1~ 𝑁(𝜇𝑡, ℎ𝑡) (29)

𝜇𝑡 = 𝑋𝑡𝛽 (30)

ℎ𝑡 = 𝛼0 + 𝛼1𝜖𝑡−12 +⋯+ 𝛼𝑝𝜖𝑡−𝑝

2 (31)

𝜖𝑡 = 𝑦𝑡 − 𝑥𝑡𝛽 (32)

Donde 𝛼0 > 0, 𝛼𝑖 ≥ 0, 𝑖 = 1, … , 𝑝

De los supuestos del modelo se deduce que

𝜖𝑡|𝜓𝑡−1~ 𝑁(0, ℎ𝑡)

Y si el proceso 𝑦𝑡|𝜓𝑡−1 tiene media 𝜇𝑡 = 0, 𝜖𝑡 = 𝑦𝑡. En este caso, el modelo se

puede expresar de esta manera:

𝜖𝑡|𝜓𝑡−1~ 𝑁(0, ℎ𝑡) (33)

𝑦𝑡 = 𝜖𝑡ℎ𝑡1 2⁄

(34)

Que es el modelo propuesto ARCH(p) por Engle (1982).

1.9.8 Proceso ARCH(1)

El modelo de regresión ARCH puede ser una aproximación a un sistema más

complejo en el que no hubiera factores innovacionales con heterocedasticidad

condicional. Los modelos estructurales admiten, en multitud de ocasiones, una

especificación tipo ARCH infinito que determina con parámetros cambiantes, lo que

hace a este tipo de modelos capaces de contrastar la hipótesis de permanencia

estructural que supone una de las hipótesis de partida y condición necesaria para

la validez del modelo econométrico tradicional.

En definitiva, la clave de estos modelos está en considerar la información pasada

de la variable y su volatilidad observada como factor altamente explicativo de su

Page 40: Series de tiempo: Modelos Heterocedásticos. Aplicación a

40 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

comportamiento presente y, por extensión lógica, de su futuro predecible.

Estadísticamente, esta conclusión se refleja en tener en cuenta la esperanza

condicional (conocida y fija la información hasta el momento inmediatamente

anterior) del cuadrado de una variable (la expresión de su varianza si su media es

nula) (Arce, 1998).

1.9.9 Valor esperado no condicionales.

De las ecuaciones (31) y (34) se tiene que el primer y segundo momento no-

condicionales, del proceso 𝑦𝑡, están dados por (Rodríguez, 2009):

Media

𝐸(𝑦𝑡) = 𝐸 (𝜖𝑡ℎ𝑡12⁄ )

𝐸(𝑦𝑡) = 𝐸(𝜖𝑡)𝐸 [(𝛼0 + 𝛼1𝑦𝑡−12 )

12⁄ ] , 𝜖𝑡 ⊥ 𝑦𝑠, 𝑠 < 𝑡

𝐸(𝑦𝑡) = 0 (𝐸(𝜖𝑡) = 0)

Varianza

𝑉(𝑦𝑡) = 𝐸(𝑦𝑡2)

𝑉(𝑦𝑡) = 𝐸(𝜖𝑡2)𝐸(𝛼0 + 𝛼1𝑦𝑡−1

2 )

𝑉(𝑦𝑡) = 𝛼0 + 𝛼1𝐸(𝑦𝑡−12 ),

𝑦𝑎 𝑞𝑢𝑒 𝐸(𝜖𝑡2) = 1

Esto se tiene para todo 𝑡. Tomando 𝐸(𝑦𝑡−12 ) en función de 𝐸(𝑦𝑡−2

2 ), se tiene:

𝐸(𝑦𝑡2) = 𝛼0 + 𝛼1[𝛼0 + 𝛼1𝐸(𝑦𝑡−2

2 )]

De forma análoga, regresando k-veces hacia el pasado y dado que 𝛼1 < 1 tenemos:

𝐸(𝑦𝑡2) = ∑[𝛼0𝛼1

𝑗+ 𝛼1

𝑘𝐸(𝑦𝑡−𝑘2 )]

𝑘−1

𝑗=0

Haciendo que 𝑘 ⟶ ∞ la ecuación anterior se convierte en

𝐸(𝑦𝑡2) = 𝛼0∑𝛼1

𝑗

𝑗=0

.

Por lo tanto

𝐸(𝑦𝑡2) =

𝛼01 − 𝛼1

Page 41: Series de tiempo: Modelos Heterocedásticos. Aplicación a

41 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.9.10 Función de autocovarianza.

La conclusión a partir de los resultados de la presente sección y las anteriores es

que un proceso ARCH(1), cumple con las condiciones de un ruido blanco (media

cero y varianza constante).

En adelante 𝜓𝑡−1 denota la 𝜎-álgebra generada por {𝑦𝑡−1, 𝑦𝑡−2, … }, es decir; 𝜓𝑡−1 es

la información observada hasta el punto 𝑡 − 1.

Usando las ecuaciones (31) y (34) se tiene:

𝑦𝑡2 = 𝜖𝑡

2(𝛼0 + 𝛼1𝑦𝑡−12 )

𝑦𝑡2 = α0𝜖𝑡

2 + 𝛼1 𝑦𝑡−12

Reemplazando 𝑦𝑡−12 en 𝑦𝑡

2, se obtiene:

𝑦𝑡2 = α0𝜖𝑡

2 + 𝛼1(α0𝜖𝑡−12 + 𝛼1𝜖𝑡

2𝑦𝑡−22 )

𝑦𝑡2 = 𝛼0𝜖𝑡

2 + 𝛼1𝛼0𝜖𝑡2𝜖𝑡−12 + 𝛼1

2 𝜖𝑡2𝜖𝑡−12 𝑦𝑡−2

2

𝑦𝑡2 = ⋯

𝑦𝑡2 = 𝛼0∑𝛼1

𝑗𝜖𝑡2𝜖𝑡−12 …𝜖𝑡−𝑗

2 + 𝛼1𝑘+1𝜖𝑡

2𝜖𝑡−12 …𝜖𝑡−𝑘

2 𝑦𝑡−𝑘−12

𝑘

𝑗=0

Si 𝑘 𝑡𝑖𝑒𝑛𝑑𝑒 𝑎 infinito se obtiene:

𝑦𝑡2 = 𝛼0∑𝛼1

𝑗𝜖𝑡2𝜖𝑡−12 …𝜖𝑡−𝑗

2

𝑘

𝑗=0

Usando (31), (34)

∑𝛼𝑗

𝑞

𝑗=1

+∑𝛽𝑖

𝑝

𝑖=1

< 1

Se tiene:

Page 42: Series de tiempo: Modelos Heterocedásticos. Aplicación a

42 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝑦𝑡 = 𝜖𝑡(𝛼0 + 𝛼1𝑦𝑡−12 )

12⁄

𝑦𝑡 = 𝜖𝑡 [𝛼0 + 𝛼1𝛼0∑𝛼1𝑗𝜖𝑡2𝜖𝑡−12 …𝜖𝑡−𝑗

2

𝑘

𝑗=0

]

12⁄

𝑦𝑡 = 𝜖𝑡𝐴𝑡−1

Donde

𝐴𝑡−1 = [𝛼0(1 + ∑ 𝛼1𝑗+1𝜖𝑡2𝜖𝑡−12 …𝜖𝑡−𝑗

2𝑘𝑗=0 )]

12⁄.

En consecuencia, la covarianza entre 𝑦𝑡 y 𝑦𝑡+ℎ, está dada por:

𝐶𝑜𝑣(𝑦𝑡, 𝑦𝑡+ℎ) = 𝐸(𝑦𝑡𝑦𝑡+ℎ)

𝐶𝑜𝑣(𝑦𝑡, 𝑦𝑡+ℎ) = (𝑦𝑡, 𝑦𝑡+ℎ)

𝐶𝑜𝑣(𝑦𝑡, 𝑦𝑡+ℎ) = 𝐸(𝜖(𝑡+ℎ)𝜖𝑡𝐴𝑡−1𝐴𝑡+ℎ−1)

𝐶𝑜𝑣(𝑦𝑡, 𝑦𝑡+ℎ) = (𝑦𝑡, 𝑦𝑡+ℎ)

𝐶𝑜𝑣(𝑦𝑡, 𝑦𝑡+ℎ) = 𝐸 (𝐸(𝜖(𝑡+ℎ)𝜖𝑡𝐴𝑡−1𝐴𝑡+ℎ−1|Ψ𝑡+ℎ−1))

𝐶𝑜𝑣(𝑦𝑡, 𝑦𝑡+ℎ) = 𝐸 (𝜖𝑡𝐴𝑡−1𝐴𝑡+ℎ−1𝐸(𝜖(𝑡+ℎ)|Ψ𝑡+ℎ−1))

𝐶𝑜𝑣(𝑦𝑡, 𝑦𝑡+ℎ) = 0

𝐸(𝜖(𝑡+ℎ)|Ψ𝑡+ℎ−1) = 0

Por lo tanto 𝑦𝑡 ∼ 𝑅𝐵(0, 𝜎𝑦2) con 𝜎𝑦

2 =𝛼01 − 𝛼1⁄ . En la siguiente sección se verificará

que 𝑦𝑡 no es IID.

Page 43: Series de tiempo: Modelos Heterocedásticos. Aplicación a

43 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.9.11 Esperanza y varianza condicional

Se describe a continuación el desarrollo de la esperanza y varianza condicional del

proceso 𝑦𝑡.

Esperanza

𝐸(𝑦𝑡|Ψ𝑡−1) = 𝐸 ((𝜖𝑡|Ψ𝑡−1)(𝛼0 + 𝛼1𝑦𝑡−12 )

12⁄ )

𝐸(𝑦𝑡|Ψ𝑡−1) = 𝐸 ((𝜖𝑡)(𝛼0 + 𝛼1𝑦𝑡−12 )

12⁄ )

𝐸(𝑦𝑡|Ψ𝑡−1) = 0, 𝑦𝑡 ⊥ 𝑦𝑠, 𝑠 < 𝑡

Varianza

𝑉(𝑦𝑡|Ψ𝑡−1) = 𝐸((𝜖𝑡2|Ψ𝑡−1)(𝛼0 + 𝛼1𝑦𝑡−1

2 ))

𝑉(𝑦𝑡|Ψ𝑡−1) = 𝐸((𝜖𝑡2)(𝛼0 + 𝛼1𝑦𝑡−1

2 ))

𝑉(𝑦𝑡|Ψ𝑡−1) = 𝛼0 + 𝛼1𝑦𝑡−12

De lo anterior se puede ver que la media es cero y que la varianza no condicional

es constante, contrario a lo que ocurre con la condicional a corto plazo, la cual

depende de 𝑦𝑡−1. De manera que se pueden presentar procesos de alta volatilidad

o calma.

1.9.12 Función de verosimilitud del proceso ARCH(1).

La estimación de los parámetros de un proceso ARCH(1) no se plantea sobre la

función de verosimilitud, sino sobre la función de verosimilitud condicional, y dados

los supuestos del modelo ARCH(1) este tendrá distribución condicional normal con

media cero y varianza ℎ𝑡.

Sea 𝐵𝑡 la función de densidad de 𝑦𝑡, dada Ψ𝑡−1. 𝐵𝑡 está dada por:

𝐵𝑡 = 𝑓(𝑦𝑡|Ψ ) =1

(2𝜋ℎ𝑡)12⁄𝑒𝑥𝑝 (−

𝑦𝑡2

2ℎ𝑡)

La función de verosimilitud condicionada conjunta de 𝑇 observaciones esta dada

por:

𝐿 = 𝐵1𝐵2…𝐵𝑇 =∏1

(2𝜋ℎ𝑡)12⁄

𝑇

𝑡=1

𝑒𝑥𝑝 (−𝑦𝑡2

2ℎ𝑡)

Maximizar la función anterior es equivalente a maximizar el logaritmo, donde el

logaritmo de la función de densidad de la 𝑡-ésima observación 𝑙𝑡, esta dada por:

Page 44: Series de tiempo: Modelos Heterocedásticos. Aplicación a

44 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝑙𝑡 = 𝑙𝑛(𝐵𝑡) = 𝑘 −1

2𝑙𝑛ℎ𝑡 −

𝑦𝑡2

2ℎ𝑡

con 𝑘 = 𝑙𝑛1

(2𝜋)12⁄

Sea 𝑙 =1

𝑇∑ 𝑙𝑡𝑇𝑡=1 ,

Si 𝛼 = (𝛼0, 𝛼1)′ es el vector parámetros la función 𝑙 debe ser maximizada con

respecto a 𝛼. Entonces el Hessiano esta dado por:

𝜕𝑙𝑡

𝜕𝛼=

𝜕𝑙𝑡

𝜕ℎ𝑡

𝜕ℎ𝑡

𝜕𝛼=𝜕ℎ𝑡

𝜕𝛼[−

1

2ℎ𝑡+

𝑦𝑡2

2ℎ𝑡2] =

1

2ℎ𝑡

𝜕ℎ𝑡

𝜕𝛼[𝑦𝑡2

ℎ𝑡− 1] (35)

𝑀 =𝜕2𝑙𝑡

𝜕𝛼𝜕𝛼′= −

1

2ℎ𝑡

𝜕ℎ𝑡

𝜕𝛼

𝜕ℎ𝑡

𝜕𝛼′(𝑦𝑡2

ℎ𝑡) + [

𝑦𝑡2

ℎ𝑡− 1]

𝜕

𝜕𝛼′(1

2ℎ𝑡

𝜕ℎ𝑡

𝜕𝛼) (36)

Si se tiene en cuenta que 𝐸 (𝑦𝑡2

ℎ𝑡|Ψ𝑡−1) = 1 y que en consecuencia

𝐸 ([𝑦𝑡2

ℎ𝑡− 1]

𝜕

𝜕𝛼′(1

2ℎ𝑡

𝜕ℎ𝑡𝜕𝛼) |Ψ𝑡−1) = 0

Al tomar la esperanza condicional en (36) obtenemos:

𝐸(𝑀|Ψ𝑡−1) = −1

2ℎ𝑡

𝜕ℎ𝑡𝜕𝛼

𝜕ℎ𝑡𝜕𝛼′

𝐸 (𝑦𝑡2

ℎ𝑡|Ψ𝑡−1) + 𝐸 ([

𝑦𝑡2

ℎ𝑡− 1]

𝜕

𝜕𝛼′(1

2ℎ𝑡

𝜕ℎ𝑡𝜕𝛼) |Ψ𝑡−1)

𝐸(𝑀|Ψ𝑡−1) = −1

2ℎ𝑡

𝜕ℎ𝑡𝜕𝛼

𝜕ℎ𝑡𝜕𝛼′

En vista de que la matriz de información Ξ es la esperanza negativa del promedio

del Hessiano sobre todas las observaciones, entonces:

Ξ𝛼𝛼 =∑1

2𝑇𝐸 (

1

ℎ𝑡

𝜕ℎ𝑡𝜕𝛼

𝜕ℎ𝑡𝜕𝛼′)

𝑇

𝑡=1

Y su estimador está dado por

Ξ𝛼�̂� =1

𝑇∑(

1

ℎ𝑡

𝜕ℎ𝑡𝜕𝛼

𝜕ℎ𝑡𝜕𝛼′)

𝑇

𝑡=1

Page 45: Series de tiempo: Modelos Heterocedásticos. Aplicación a

45 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Si ℎ𝑡 es lineal en los parámetros esta se podría escribir en la forma

ℎ𝑡 = 𝛼0 + 𝛼1𝑦𝑡−12 +⋯+ 𝛼𝑝𝑦𝑡−𝑝

2 .

Sean 𝜖𝑡 = (1, 𝑦𝑡−12 , … , 𝑦𝑡−𝑝

2 ) y 𝛼′ = (𝛼0, 𝛼1, … , 𝛼𝑝), se puede entonces reescribir a ℎ𝑡

como:

ℎ𝑡 = 𝜖𝑡𝛼, con 𝜕ℎ𝑡𝜕𝛼

= 𝜖𝑡

El vector gradiente será:

𝜕𝑙𝑡𝜕𝛼

=1

2ℎ𝑡𝜖𝑡 [𝑦𝑡2

ℎ𝑡− 1]

y el estimador de la matriz de información estará dado por:

Ξ𝛼�̂� =1

𝑇∑(

𝜖𝑡′𝜖𝑡

ℎ𝑡2 )

𝑇

𝑡=1

1.9.13 Generalización ARCH(p)

A continuación se presenta una generalización para un proceso ARCH(p), también

se muestra que un proceso ARCH es un ruido blanco pero no un IID (Rodríguez,

2009).

1.9.14 Generalización de la esperanza y varianza no-condicionales.

𝐸(𝑦𝑡) = 𝐸 (𝜖𝑡ℎ𝑡12⁄ )

𝐸(𝑦𝑡) = 𝐸 (𝜖𝑡 (𝛼0 +∑𝛼𝑖𝑦𝑡−𝑖2

𝑝

𝑖=1

)

12⁄

)

𝐸(𝑦𝑡) = 𝐸(𝜖𝑡)𝐸 ((𝛼0 +∑𝛼𝑖𝑦𝑡−𝑖2

𝑝

𝑖=1

)

12⁄

) = 0, 𝜖𝑡 ⊥ 𝑦𝑠

Page 46: Series de tiempo: Modelos Heterocedásticos. Aplicación a

46 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝑉(𝑦𝑡) = 𝐸(𝑦𝑡2)

𝑉(𝑦𝑡) = 𝐸 (𝜖𝑡2 (𝛼0 +∑𝛼𝑖𝑦𝑡−𝑖

2

𝑝

𝑖=1

))

𝑉(𝑦𝑡) = 𝐸(𝜖𝑡2)𝐸 (𝛼0 +∑𝛼𝑖𝑦𝑡−𝑖

2

𝑝

𝑖=1

)

𝑉(𝑦𝑡) = 𝛼0 +∑𝛼𝑖𝐸(𝑦𝑡−𝑖2 )

𝑝

𝑖=1

𝑉(𝑦𝑡) = 𝛼0 +∑𝛼𝑖 (𝛼0 +∑𝛼𝑖𝐸(𝑦𝑡−𝑖−𝑘2 )

𝑝

𝑘=1

)

𝑝

𝑖=1

𝑉(𝑦𝑡) = 𝛼0 +∑(𝛼𝑖𝛼0 + 𝛼𝑖2∑𝐸(𝑦𝑡−𝑖−𝑘

2 )

𝑝

𝑘=1

)

𝑝

𝑖=1

𝑉(𝑦𝑡) = 𝛼0∑(∑𝛼𝑖

𝑝

𝑖=1

)

𝑗𝑘

𝑗=1

=𝛼0

1 − ∑ 𝛼𝑖𝑝𝑖=1

𝑘 ⟶ ∞

Los siguientes son los desarrollos para la esperanza y varianza condicional.

𝐸(𝑦𝑡|Ψ𝑡−1) = 𝐸

(

(𝜖𝑡|Ψ𝑡−1) (𝛼0 +∑𝛼𝑖𝑦𝑡−𝑖

2

𝑝

𝑖=1

)

12⁄

)

= 0

𝑉(𝑦𝑡2|Ψ𝑡−1) = 𝐸 ((𝜖𝑡

2|Ψ𝑡−1) (𝛼0 +∑𝛼𝑖𝑦𝑡−𝑖2

𝑝

𝑖=1

))

𝑉(𝑦𝑡2|Ψ𝑡−1) = 𝛼0 +∑𝛼𝑖𝑦𝑡−𝑖

2

𝑝

𝑖=1

𝑉(𝑦𝑡2|Ψ𝑡−1) = ℎ𝑡

Se concluye entonces que para un modelo ARCH(p) la varianza condicional tiene

como parámetros a 𝑦𝑡−1, 𝑦𝑡−2, …, las otras medidas analizadas arrojan resultados

constantes.

Page 47: Series de tiempo: Modelos Heterocedásticos. Aplicación a

47 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.9.15 Estimación de parámetros.

La estimación de los parámetros y de sus varianzas se hace mediante el algoritmo

de Fisher-Scoring, si (Casas, Cepeda, 2008):

𝜃(𝑘) es el vector de los valores de los parámetros en la k-ésima iteración del

algoritmo.

𝑞(𝑘) es el vector 𝑞 =1

𝑇∑

𝜕𝑙𝑡

𝜕𝜃𝑡 evaluado en 𝜃(𝑘).

𝐼(𝜃(𝑘)) es el valor de la matriz de información 𝐼(𝜃) evaluada en 𝜃(𝑘).

El algoritmo sería:

𝜃(𝑘+1) = 𝜃(𝑘) + [𝐼(𝜃(𝑘))]−1𝑞(𝑘), 𝑘 ≥ 0

Si 𝐼𝛼𝛽 = 0, se puede proponer un algoritmo iterado alternado de Fisher-Scoring para

obtener las estimaciones máximo verosímiles de los vectores de parámetros 𝛼 y 𝛽,

como el propuesto en Aitkin (1987) o en Cepeda y Gamerman (2001) para modelos

lineales con varianza variable. De esta manera, el algoritmo de Fisher-Scoring

puede formularse a partir de las siguientes ecuaciones:

𝛽(𝑘+1) = 𝛽(𝑘) + (𝐼𝛽𝛽(𝑘))−1

𝑞𝛽(𝑘) (37)

𝛼(𝑘+1) = 𝛼(𝑘) + (𝐼𝛼𝛼(𝑘))

−1

𝑞𝛼(𝑘) (38)

Donde 𝛽(𝑘) y 𝛼(𝑘) son los valores de los vectores 𝛽 y 𝛼 en la k-ésima iteración del

algoritmo, con (𝐼𝛽𝛽(𝑘))

−1

y (𝐼𝛼𝛼(𝑘))

−1

Son, respectivamente, las matrices inversas de 𝐼𝛽𝛽(𝑘)

y 𝐼𝛼𝛼(𝑘)

evaluadas en 𝛽(𝑘)y 𝛼(𝑘).

Por último, 𝑞𝛽(𝑘)

y 𝑞𝛼(𝑘)

son los vectores 𝑞𝛽 =1

𝑇∑

𝜕𝑙𝑡

𝜕𝛽𝑡 y 𝑞𝛼 =1

𝑇∑

𝜕𝑙𝑡

𝜕𝛼𝑡 evaluados

respectivamente en 𝛽(𝑘)y 𝛼(𝑘).

El algoritmo para obtener las estimaciones de máxima verosimilitud de los

parámetros para la media y la varianza es:

Dar valores iniciales para 𝛽 y 𝛼, (𝛽(0)y 𝛼(0)).

Estimar 𝐼𝛽𝛽(𝑘)

y 𝑞𝛽(𝑘)

utilizando 𝛽(𝑘)y 𝛼(𝑘).

Calcular 𝛽(𝑘+1) utilizando la ecuación (37).

Utilizando 𝛽(𝑘+1) y 𝛼(𝑘), estimar 𝐼𝛼𝛼(𝑘)

y 𝑞𝛼(𝑘)

.

Calcular 𝛼(𝑘+1) utilizando la ecuación (38).

Repita los pasos 2 a 5 hasta que se cumpla algún criterio de convergencia.

Page 48: Series de tiempo: Modelos Heterocedásticos. Aplicación a

48 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

1.9.16 Modelo Autoregresivo Condicional Heterocedástico Generalizado.

(GARCH)

Los modelos Condicionales Autorregresivos Heterocedásticos (ARCH) fueron

introducidos por Engle (1982) y la extensión GARCH (ARCH generalizado) se debe

a Bollerslev (1986). En estos modelos, el concepto clave es la varianza condicional,

es decir, la varianza condicional en el pasado. En los modelos GARCH clásicos, la

varianza condicional se expresa como una función lineal de los valores pasados al

cuadrado de la serie. Esta particular especificación es capaz de capturar los

principales hechos estilizados que caracterizan una serie (Francq & Zakoïan, 2010).

1.9.17 Definición proceso GARCH (p,q)

Un proceso (𝑦𝑡) se llama proceso GARCH(p, q) si existen sus dos primeros

momentos condicionales y satisfacen:

𝐸(𝑦𝑡|𝑦𝑢 , 𝑢 < 𝑡) = 0 𝑡 ∈ ℤ

Existen constantes ω, αi, i = 1, ..., q y 𝛽j, j = 1, ..., p tal que

𝜎𝑡2 = 𝑉𝑎𝑟(𝑦𝑡|𝑦𝑢 , 𝑢 < 𝑡) = 𝜔 + ∑ 𝛼𝑖𝑦𝑡−𝑖

2 + ∑ 𝛽𝑗𝜎𝑡−𝑗2𝑝

𝑗=1𝑞𝑖=1 (39)

Donde podemos escribir la ecuación (39) como:

𝜎𝑡2 = 𝜔 + 𝛼(𝐿)𝑦𝑡

2 + 𝛽(𝐿)𝜎𝑡2, 𝑡 ∈ ℤ (40)

Donde L es el operador de retardos estándar (𝐿𝑖𝑦𝑡2 = 𝑦𝑡−𝑖

2 y 𝐿𝑖𝜎𝑡2 = 𝜎𝑡−𝑖

2 para

cualquier entero i), y α y β son polinomios de grados q y p, respectivamente:

𝛼(𝐿) =∑𝛼𝑖𝐿𝑖

𝑞

𝑖=1

, 𝛽(𝐿) =∑𝛽𝑗𝐿𝑗

𝑝

𝑗=1

Si 𝛽(𝑧) = 0 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠:

𝜎𝑡2 = 𝜔 + ∑ 𝛼𝑖𝑦𝑡−𝑖

2𝑞𝑖=1 (41)

El proceso se denomina un proceso ARCH (q). Por definición, la innovación del

proceso 𝑦𝑡2 de es la variable 𝑣𝑡 = 𝑦𝑡

2 − 𝜎𝑡2 . Sustituyendo en (39) las variables 𝜎𝑡−𝑖

2

por 𝑦𝑡−𝑗2 − 𝑣𝑡−𝑗, obtenemos la representación:

Page 49: Series de tiempo: Modelos Heterocedásticos. Aplicación a

49 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

𝑦𝑡2 = 𝜔 + ∑ (𝛼𝑖 + 𝛽𝑖)

𝑟𝑖=1 𝑦𝑡−𝑖

2 + 𝑣𝑡 − ∑ 𝛽𝑗𝑝𝑗=1 𝑣𝑡−𝑗, 𝑡 ∈ ℤ (42)

Donde r = max (p, q), por conveniencia escribimos αi = 0 (βj = 0) si, i > q ; (j > p).

Esta ecuación tiene la estructura lineal de un modelo ARMA, lo que permite un

sencillo cálculo de las predicciones lineales.

Bajo supuestos adicionales (lo que implica la estacionariedad de segundo orden de

𝑦𝑡2), podemos afirmar que si (𝑦𝑡) es GARCH(p, q), entonces (𝑦𝑡

2) es un Proceso

ARMA(r,p). En particular, el cuadrado de un proceso ARCH(q) admite, si es

estacionaria, una representación AR(q). La representación ARMA será útil para la

estimación y la identificación de procesos GARCH (Francq & Zakoïan, 2010) .

1.9.18 Correlación de un proceso GARCH.

Un rasgo característico de una serie financiera es que los rendimientos al cuadrado

están autocorrelacionados, mientras que los retornos no lo son. La representación

(42) muestra que los procesos GARCH son capaces de capturar este hecho

empírico.

Si el momento de cuarto orden de (𝑦𝑡) es infinito, la secuencia de las

autocorrelaciones de orden h de 𝑦𝑡2 es la solución de una ecuación recursiva que

es característica de los modelos ARMA. En aras de la simplicidad, consideremos el

caso del proceso GARCH(1,1). El proceso (𝑦𝑡2) es ARMA(1, 1), y por tanto su

autocorrelación disminuye a cero proporcionalmente a (𝛼1 + 𝛽1)ℎ; 𝑝𝑎𝑟𝑎 ℎ > 1,

𝐶𝑜𝑟𝑟(𝑦𝑡2, 𝑦𝑡−ℎ

2 ) = 𝐾(𝛼1 + 𝛽1)ℎ

Donde K es una constante independiente de h. Por otra parte, los valores para 𝑦𝑡 no están correlacionados, bajo la condición de la definición 1.1 (Francq & Zakoïan,

2010).

1.9.19 Proceso GARCH fuerte (p, q).

Sea (𝜂𝑡) una distribución de probabilidad con valor esperado nulo y varianza igual

a la unidad. El proceso (𝑦𝑡) se denomina GARCH fuerte (p, q) (con respecto a la

secuencia (𝜂𝑡)) si:

{𝑦𝑡 = 𝜎𝑡𝜂𝑡

𝜎𝑡2 = 𝜔 + ∑ 𝛼𝑖𝑦𝑡−𝑖

2 + ∑ 𝛽𝑗𝜎𝑡−𝑗2𝑝

𝑗=1𝑞𝑖=1 (43)

Donde el αi y βj son restricciones de no negatividad y ω es una constante positiva

(en sentido estricto).

Page 50: Series de tiempo: Modelos Heterocedásticos. Aplicación a

50 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Reescribiendo la expresión (39) en términos del proceso GARCH(p,q) obtenemos:

𝜎𝑡2 = 𝜔 +∑𝛼𝑖𝜎𝑡−𝑖

2 𝜂𝑡−𝑖2 +∑𝛽𝑗𝜎𝑡−𝑗

2

𝑝

𝑗=1

𝑞

𝑖=1

𝜎𝑡2 = 𝜔 +∑ 𝛼𝑖(𝜂𝑡−𝑖)𝜎𝑡−𝑖

2𝑞𝑖=1 (44)

Donde 𝑎𝑖(𝑧) = 𝛼𝑖 𝑧2 + 𝛽𝑖, 𝑖 = 1,… , 𝑟 Esta representación muestra que el proceso de

la volatilidad de un proceso GARCH fuerte, es la solución de una ecuación

autorregresiva con coeficientes aleatorios.

1.9.20 Proceso GARCH(1,1).

Cuando p=q=1 se le asignan estos valores a la expresión (43), entonces adopta la

forma:

{𝑦𝑡 = 𝜎𝑡𝜂𝑡

𝜎𝑡2 = 𝜔 + 𝛼 𝑦𝑡−𝑖

2 + 𝛽 𝜎𝑡−𝑗2 (45)

Con ω ≥ 0, α≥ 0, β≥ 0. Tenemos a(z) = αz2 + β

1.9.21 Estacionariedad estricta del proceso GARCH fuerte(1, 1):

−∞ ≤ 𝛾 ∶= 𝐸𝑙𝑜𝑔{𝛼𝑖𝜂𝑡2 + 𝛽} < 0 (46)

Donde la serie infinita

ℎ𝑡 = {1 + ∑ 𝑎(𝜂𝑡−1)…∞𝑖=1 𝑎(𝜂𝑡−𝑖)}𝜔 (47)

Converge con toda seguridad y el proceso (𝑦𝑡) definido por 𝑦𝑡 = √ℎ𝑡𝜂𝑡 es la solución

única y estrictamente estacionaria del proceso, la expresión (45). Esta solución no

es anticipativa y ergódica (una secuencia estacionaria se dice que es ergódica si

satisface la ley fuerte de los grandes números). Si γ ≥ 0 y ω> 0, no existe una

solución estrictamente estacionaria (Francq & Zakoïan, 2010).

1.9.22 Condición estricta de estacionariedad.

Cuando ω = 0 y γ < 0, es evidente que, en vista de que la expresión

(47), se tiene que la única solución estrictamente estacionaria es 𝑦𝑡 =

0. Por tanto, es natural para imponer ω> 0.

Page 51: Series de tiempo: Modelos Heterocedásticos. Aplicación a

51 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Puede observarse que la condición (46) depende de la distribución de

𝜂𝑡 y que no es simétrica en α y β.

El análisis de la prueba muestra que los supuestos Eηt = 0 y E𝜂𝑡2 = 1,

que facilitan la interpretación del modelo, no son necesarios. Es

suficiente para tener 𝐸𝑙𝑜𝑔+𝜂𝑡2 < ∞

La Condición (46) implica que β < 1. Ahora bien, si α + β < 1, entonces

(46) se satisface, ya que, usando la desigualdad de Jensen,

𝐸𝑙𝑜𝑔{𝑎(𝜂𝑡)} ≤ 𝑙𝑜𝑔𝐸{𝑎(𝜂𝑡)} = log(𝛼 + 𝛽) < 0

Si la expresión (46) se satisface, además que también se satisface

para cualquier par (α1, β1) de tal manera que α1 ≤ α y β1 ≤ β. En

particular, la estacionariedad estricta de un modelo GARCH(1, 1)

implica que el modelo ARCH(1) se ha obtenido mediante la

cancelación de β y también resulta ser estacionario.

En el caso ARCH(1), (β = 0), la estricta limitación estacionariedad se

escribe como:

0 ≤ 𝛼 < 𝑒𝑥𝑝{−𝐸(𝑙𝑜𝑔𝜂𝑡2)} (48)

Para tales distribuciones, una solución para el proceso ARCH(1) es

estrictamente estacionario, si existe cualquiera que sea el valor de α.

Page 52: Series de tiempo: Modelos Heterocedásticos. Aplicación a

52 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

2. Capítulo 2. Algunos comandos en R.

2.1. Limpiar y preparar la información.

Antes de iniciar la metodología se debe preparar la información antes de cargarla.

El archivo que se cargara a R debe tener extensión .csv separado por comas.

Además, el archivo debe tener columna con el valor correspondiente, tener en

cuenta con que se separan los decimales, generalmente Excel separa los decimales

con comas (,).

2.2. Lectura de la información y librerías a utilizar.

En el primer paso, se debe cargar la información en R utilizando la función

read.cvs(). En el primer comando de la función se coloca la ubicación de la base

de datos, donde las carpetas deben estar separadas por (/). Además, en esta

función se deben establecer una serie de comandos adicionales para que la lectura

de información se realice de forma adecuada. Los comandos son: header=TRUE,

ya que, la base de datos que se cargará tiene encabezado, sep=”;”, por la forma

en que se creó la base de datos y dec=”,”, en caso que los decimales estén

separados por comas. Además, se muestran las librerías que se utilizaran a lo largo

del análisis.

datos <- read.csv("C:/datos.csv",header = TRUE, sep=";", dec=",") install.packages("PerformanceAnalytics") install.packages("quantmod") install.packages("car") install.packages("FinTS") install.packages("stats") install.packages("forecast") install.packages("fGarch") install.packages("TSA") install.packages("xtable") library("PerformanceAnalytics") library("quantmod") library("car") library("FinTS") library("stats") library("forecast") library("fGarch") library("TSA") library("xtable")

Page 53: Series de tiempo: Modelos Heterocedásticos. Aplicación a

53 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

2.3. Convertir la información en una serie de tiempo.

En el segundo paso, se convierte la información en una serie de tiempo con la

función ts().

serie <- ts(datos) head(datos)

2.4. Estadísticas descriptivas y gráfico de la función pura.

En el tercer paso, se calculan las estadísticas descriptivas de la serie de tiempo

estudiada con la función summary(), esta función muestra indicadores tales como

el mínimo, máximo y los cuartiles. Además, en este paso se observa el

comportamiento de la serie de tiempo utilizando la función plot(), la cual realiza un

gráfico de la serie, esta función permite insertar el nombre de la serie como título

con el comando main=””, ponerle un color a la serie de tiempo con el comando

col=””, asignarle nombre al eje horizontal y vertical con los comandos xlab=”” y

ylab=””.

summary(serie) plot(serie, main=”Serie”, col=”blue”, xlab=”Tiempo”, ylab=”Valor”)

2.5 Prueba de independencia en los rezagos.

En el cuarto paso, se debe probar si existe independencia entre los rezagos de la

serie de tiempo, utilizando la prueba Ljung-Box, por medio de la función box.test(),

donde el comando utilizado debe ser type=”Ljung-Box”. Esta función permite

establecer los rezagos que se usaran en la prueba, con el comando lag. Además,

a los retornos se les debe aplicar el comando coredata(), que limpia la información

de los retornos. H0: Los retornos de la serie se distribuyen de forma independiente,

por lo que, para continuar con el modelamiento se debe rechazar la hipótesis nula

Box.test(coredata(serie), type=”Ljung-Box”, lag=12)

2.6 Prueba de efectos ARCH.

En el quinto paso, se debe probar si es adecuado el uso de un modelo de volatilidad

para la serie de tiempo, con la función ArchTest().La hipótesis nula de esta prueba

establece que no existen efectos ARCH (H0 : α1 = α2 = ... = αq = 0 (No hay efectos

Page 54: Series de tiempo: Modelos Heterocedásticos. Aplicación a

54 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

ARCH)), por lo que, para continuar con el modelamiento se debe rechazar la

hipótesis nula.

ArchTest(serie.ret)

2.7 Función de autocorrelación (FAC) y autocorrelación parcial (FACP) para

el modelo ARIMA.

En el sexto paso, se grafica la FAC y FACP de la serie de tiempo, por medio de las

funciones acf() y pacf(), para definir cuáles son los posibles parámetros que tendrá

el modelo ARIMA(p, q). El parámetro p, representa el orden del modelo

autorregresivo (FACP) y el parámetro q, el orden del modelo de medias móviles

(FAC). Los posibles parámetros para p y q son los rezagos que se salen de las

bandas. Además se aplicará la prueba de Dickey-Fuller La cual tiene como hipótesis

nula H0: la serie tiene raíz unitaria (La serie no es estacionaria).

adf.test(trm) par(mfrow=c(2,1)) acf(serie, main=”FAC de la serie”) pacf(serie, main=”FACP de la serie”)

2.8 Modelos ARIMA propuestos.

En el séptimo paso, se estiman los modelos ARIMA de la serie de tiempo, para

todas las combinaciones de los posibles parámetros, p y q, utilizando la función

arima(), en esta función el comando para colocar el orden del modelo es

order=c(p,d,q), donde la d significa si se aplicó el operador diferencia, basados en

la prueba de Dickey-Fuller.

arima110 <- arima(serie, order=c(1, 1, 0)) arima011 <- arima(serie, order=c(0, 1, 1)) arima111 <- arima(serie, order=c(1, 1, 1))

2.9 Selección del modelo ARIMA.

En el octavo paso, por medio del criterio AKAIKE (AIC) se establece el mejor modelo

ARIMA, usando $aic en cada modelo estimado. El modelo con menor AIC es el

modelo ARIMA seleccionado.

aic110 <- arima110$aic aic011 <- arima011$aic aic111 <- arima111$aic nombres <- c("aic110","aic011","aic111")

Page 55: Series de tiempo: Modelos Heterocedásticos. Aplicación a

55 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

aic <- as.numeric(c(aic110,aic011,aic111)) table <- data.frame(nombre,aic)

2.10 Función de autocorrelación (FAC) y autocorrelación parcial (FACP) para

el modelo ARCH/GARCH.

En el noveno paso, con los residuos al cuadrado del modelo ARIMA seleccionado,

se construyen la FAC y FACP para determinar los posibles parámetros, p y q, que

tendrán los modelos ARCH/GARCH propuestos.

res_arima011 <- arima011$res res_arima011_2 <- arima011$res^2 par(mfcol=c(3, 1)) plot(res_arima011_2,main='Residuales al cuadrado del modelo ARIMA') acf(res_arima011_2,main='FAC de los residuales al cuadrado',lag.max=50) pacf(res_arima011_2,main=' FAC de los residuales al cuadrado',lag.max=50)

2.11 Modelos ARCH/GARCH propuestos.

En el décimo paso, se estiman los modelos ARCH/GARCH de los residuales del

modelo ARIMA seleccionado, para todas las combinaciones de los posibles

parámetros, p y q. Para el modelo ARCH se estiman modelos de los posibles

parámetros q, con la función garch(), estableciendo el comando order=c(0,q). Para

el modelo GARCH, se estiman modelos GARCH de todas las combinaciones de los

posibles, p y q, utilizando la función garch(), estableciendo el comando

order=c(p,q).

arch07=garch(res_arima011,order=c(0,7),trace=F) arch14=garch(res_arima011,order=c(0,14),trace=F) garch77=garch(res_arima011,order=c(7,7),trace=F) garch714=garch(res_arima011,order=c(7,14),trace=F) garch137=garch(res_arima011,order=c(13,7),trace=F) garch1314=garch(res_arima011,order=c(13,14),trace=F)

Page 56: Series de tiempo: Modelos Heterocedásticos. Aplicación a

56 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

2.12 Selección del modelo ARCH/GARCH.

En el onceavo paso, por medio del criterio AKAIKE (AIC) se establece el mejor

modelo ARCH/GARCH, usando $aic en cada modelo estimado, tanto ARCH como

GARCH. El modelo con menor AIC es el modelo ARCH/GARCH seleccionado.

aicarch07=AIC(arch07) aicarch14=AIC(arch14) aicarch77=AIC(garch77) aicarch714=AIC(garch714) aicarch137=AIC(garch137) aicarch1314=AIC(garch1314)

nombres2 <- c("aicarch07","aicarch14","aicgarch77","aicarch714","aicarch137","aicarch1314") aic2 <- as.numeric(c(aicarch07,aicarch14,aicgarch77,aicarch714,aicarch137,aicarch1314)) table <- data.frame(nombres2,aic2)

2.13 Modelo ARCH/GARCH seleccionado.

En el doceavo paso, se muestran las estimaciones del modelo ARCH/GARCH seleccionado y algunas pruebas de diagnóstico, como la prueba Jarque Bera para establecer si existe normalidad y la prueba Ljung-Box si existe independencia. summary(arch14)

2.14 Gráfico del modelo ARIMA y GARCH.

En el treceavo paso, se construye el grafico de los valores reales, estimaciones del modelo ARIMA seleccionado y los intervalos de confianza creados con base al modelo ARCH/GARCH seleccionado. ht.arch14=arch14$fit[,1]^2 estimaciones_arima011=fitted.values(arima011) inf_garch14= estimaciones_arima011-1.96*sqrt(ht.arch14) sup_garch14= estimaciones_arima011+1.96*sqrt(ht.arch14) plot(serie.ret, main = “Grafico de los retornos de la serie con los intervalos de confianza del modelo Arch”, type = "l") lines(inf_garch14,col='red') lines(sup_garch14,col='blue') lines(estimaciones_arima011,col='green')

Page 57: Series de tiempo: Modelos Heterocedásticos. Aplicación a

57 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

3 Capítulo 3. Aplicación de una serie de

tiempo económica utilizando R.

3.1 Lectura de la información y librerías a utilizar.

La serie económica estudiada será la tasa de cambio representativa del mercado (TRM) diaria Colombiana, durante el periodo entre el 01/01/2015 hasta el 10/08/2016, donde se tienen 589 datos. La fuente de la información es la página del Banco de la República. Se cargan los datos a R y se instalan las librerías que se utilizaran a lo largo del ejercicio. TRM<- read.csv("trm.csv",header =TRUE, sep=";", dec=",")

head(trm)

[1] 2392.46 2392.46 2383.37 2383.37 2383.37 2412.82

3.2 Convertir la información en una serie de tiempo.

Se convierten los datos del TRM diario Colombiano en una serie de tiempo mediante

la función ts().

trm <- trm[,-1] trm <- ts(trm) head(trm) [1] 2392.46 2392.46 2383.37 2383.37 2383.37 2412.82

La función head() me permite visualizar los primeros datos de la serie de tiempo

TRM.

3.3 Estadísticas descriptivas y gráfico de la función pura.

Las estadísticas descriptivas del TRM diario Colombiano entre el 01/01/2015 hasta

el 10/08/2016 son:

> summary(trm)

Min. 1st Qu. Median Mean 3rd Qu. Max.

Page 58: Series de tiempo: Modelos Heterocedásticos. Aplicación a

58 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

2361 2567 2945 2877 3086 3435

Durante el periodo, la TRM diario colombiano tuvo una tasa mínima de cambio de

2361 y una tasa máximo de cambio de 3435. Además, tasa promedio de 2877. Para

observar como fue el comportamiento de la TRM diaria colombiana se realiza el

gráfico.

Durante los primero 50 periodos la TRM permanece constante y oscila

aproximadamente entre 2400. Luego, entre los periodos 50 al 120 se presenta un

pico extremo en donde el TRM sube hasta 2650 y luego vuelve a bajar hasta 2400.

Sin embargo entre los periodos 120 y 250, el TRM tiene un crecimiento casi

constante hasta llegar a 3200. Entre los periodos 250 y 300, se presenta uno picos,

donde el TRM baja 2800. Entre los periodos 300 y 380, el TRM tiene un crecimiento

casi constante hasta 3200. Entre los periodos 380 y 420, el TRM oscila

aproximadamente en 330. Luego, entre el periodo 420 y 500, el TRM se reduce

hasta llegar 300. Finalmente, entre los periodos 500 y 600, oscila aproximadamente

en 3000.

3.4 Prueba de independencia en los rezagos.

Antes de la estimación del modelo, se debe realizar la prueba de Ljung-Box, la cual

nos permite establecer la existencia de independencia entre los rezagos.

𝐻0: Existe independencia entre los rezagos. 𝐻1: No existe independencia entre los rezagos.

Page 59: Series de tiempo: Modelos Heterocedásticos. Aplicación a

59 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Box-Ljung test data: coredata(trm) X-squared = 6570.8, df = 12, p-value < 2.2e-16

Como el valor P (2.2e-16) de la prueba Ljung-Box para la TRM es menor a 0.05.

Existen evidencias suficientes para rechazar la hipótesis nula con un 5% de

significancia, por lo que, los rezagos de la TRM diaria Colombiana son

independientes. Entonces, se puede continuar con el modelamiento.

3.5 Prueba de efectos ARCH.

Además de la prueba de independencia, se debe realizar otra prueba para

establecer si la TRM diaria colombiana es capaz de ajustarse a un modelo

ARCH/GARCH.

𝐻0: α1 = α2 = ... = αq = 0 (No hay efectos ARCH) ARCH LM-test; Null hypothesis: no ARCH effects data: trm Chi-squared = 572.34, df = 12, p-value < 2.2e-16

Como el valor P (2.2e’16) de la prueba para los retornos es menor a 0.05. Existen

evidencias suficientes para rechazar la hipótesis nula con un 5% de significancia,

por lo que, la TRM diaria Colombiana tiene efectos ARCH/GARCH. Entonces, se

puede continuar con el modelamiento.

3.6 Función de autocorrelación (FAC) y Función de autocorrelación

parcial (FACP) para el modelo ARIMA.

El primer paso para estimar un modelo GARCH, es estimar un modelo ARIMA (p,

q), dónde p representa el orden del modelo autorregresivo, el cual se establece con

la función de autocorrelación parcial (FACP) y q el orden del modelo de medias

móviles, el cual se establece con la función de autocorrelación (FAC).

Page 60: Series de tiempo: Modelos Heterocedásticos. Aplicación a

60 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

En la gráfica de la FAC, se observa que no tiene caída rápida por lo cual se aplicara la prueba de Dickey-Fuller para determinar si es estacionaria o si se debe realizar una diferencia de la misma. > adf.test(trm) Augmented Dickey-Fuller Test data: trm Dickey-Fuller = -1.4003, Lag order = 8, p-value = 0.8322 alternative hypothesis: stationary En la prueba de Dickey-Fuller se aprecia que a un nivel de significancia del 5% no se rechaza la hipótesis nula, por lo cual la serie no es estacionaria. Con el fin de determinar los órdenes para los modelos, se aplicara el operador diferencia, y se presentara la prueba nuevamente y los gráficos de Autocorrelación y Autocorrelación Parcial de la serie TRM1. > adf.test(trm1) Augmented Dickey-Fuller Test data: trm1 Dickey-Fuller = -7.5831, Lag order = 8, p-value = 0.01 alternative hypothesis: stationary

Page 61: Series de tiempo: Modelos Heterocedásticos. Aplicación a

61 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

En la prueba de Dickey-Fuller se aprecia que a un nivel de significancia del 5% se rechaza la hipótesis nula, por lo cual la serie no es estacionaria. Además, se observa que los posibles ordenes de la serie son p = 1, d = 1 y q =1.

Page 62: Series de tiempo: Modelos Heterocedásticos. Aplicación a

62 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

3.7 Modelos ARIMA propuestos.

Se estiman los modelos ARIMA para todas las combinaciones de los posibles parámetros, p y q. Ademas, se probaran los modelos con una diferenciación. arima110 <- arima(trm, order=c(1, 1, 0)) aic110=arima110$aic arima011 <- arima(trm, order=c(0, 1, 1)) aic011=arima011$aic arima111 <- arima(trm, order=c(1, 1, 1)) aic111=arima111$aic

3.8 Selección del modelo ARIMA.

Para elegir el mejor modelo ARIMA para la TRM diaria colombiana, se tiene en cuenta el criterio de Akaike (AIC), dónde el modelo con el menor AIC representa el mejor modelo.

nombres aic

aic011 5468,222

aic111 5468,930

aic110 5469,945

El mejor modelo es el ARIMA(0,1,1), ya que, tiene el menor AIC (5468.222).

3.9 Función de autocorrelación (FAC) y Función de autocorrelación

parcial (FACP) para el modelo ARCH/GARCH.

Con los residuales al cuadrado del modelo ARIMA(0,1,1) se construye el modelo ARCH/GARCH, utilizando las mismas herramientas para escoger el modelo ARIMA. Las gráficas de las FAC y FACP para los residuales al cuadrado del modelo ARIMA (0,1,1) son:

Page 63: Series de tiempo: Modelos Heterocedásticos. Aplicación a

63 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

En la gráfica de la FAC, se observa que los posibles valores del parámetro q son 7,14. En la gráfica de la FACP, se observa que los posibles valores del parámetro p son 7,13.

3.10 Modelos ARCH/GARCH propuestos.

Utilizando los residuales del modelo ARIMA(0,1,1), se estiman los modelos ARCH para los posibles parámetros q. Además, se estiman los modelos GARCH para todas las combinaciones de los posibles parámetros, p y q.

Page 64: Series de tiempo: Modelos Heterocedásticos. Aplicación a

64 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

arch07=garch(res_arima011,order=c(0,7),trace=F) aicarch07=AIC(arch07) arch14=garch(res_arima011,order=c(0,14),trace=F) aicarch14=AIC(arch14) garch77=garch(res_arima011,order=c(7,7),trace=F) aicarch77=AIC(garch77) garch714=garch(res_arima011,order=c(7,14),trace=F) aicarch714=AIC(garch714) garch137=garch(res_arima011,order=c(13,7),trace=F) aicarch137=AIC(garch137) garch1314=garch(res_arima011,order=c(13,14),trace=F) aicarch1314=AIC(garch1314)

3.11 Selección del modelo ARCH/GARCH.

De la misma manera que se eligió el mejor modelo ARIMA, se tiene en cuenta el criterio de Akaike (AIC) para elegir el mejor modelo ARCH/GARCH, dónde el modelo con el menor AIC representa el mejor modelo.

nombres aic

arch14 5353,836

arch07 5416,964

garch77 5423,745

garch137 24126,490

garch714 20000000000

garch1314 20000000000

El mejor modelo es el ARCH(14), ya que, tiene el menor AIC (5353,386).

3.12 Modelo ARCH/GARCH seleccionado.

El modelo ARCH(14) tiene los siguientes resultados. Call: garch(x = res_arima011, order = c(0, 14), trace = F) Model: GARCH(0,14) Residuals:

Page 65: Series de tiempo: Modelos Heterocedásticos. Aplicación a

65 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Min 1Q Median 3Q Max -5.269637 -0.335629 0.002085 0.497856 3.932422 Coefficient(s): Estimate Std. Error t value Pr(>|t|) a0 1.912e+02 2.980e+01 6.416 1.39e-10 *** a3 5.454e-02 2.467e-02 2.210 0.027075 * a4 3.341e-02 1.650e-02 2.026 0.042800 * a7 1.108e-01 3.836e-02 2.888 0.003876 ** a11 6.067e-02 2.424e-02 2.503 0.012319 * a13 8.600e-02 3.648e-02 2.357 0.018406 * a14 1.390e-01 3.924e-02 3.542 0.000397 ***

3.13 Gráfico de los retornos de Precio de cierre de la TRM

Colombiana con los intervalos de confianza del modelo GARCH.

Finalmente, en el siguiente gráfico se puede observar que las estimaciones son muy cercanas a los valores reales. Además, los intervalos de confianza generados a partir el modelo GARCH tienen un comportamiento similar a la TRM diaria Colombiana.

Page 66: Series de tiempo: Modelos Heterocedásticos. Aplicación a

66 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Gráfico de los retornos de la tasa de cambio representativa del mercado (TRM) diaria Colombiana con los intervalos de confianza del modelo ARCH(14) Nota: *Línea verde: Estimaciones

*Línea negra: Valores reales *Línea azul: Límite inferior (nivel de confianza del 0.05)

*Línea roja: Límite superior (nivel de confianza del 0.05)

Modelo final.

𝐴𝑅𝐼𝑀𝐴(0,1,1): (1 − 𝐿)𝑦𝑡 = (1 − 0.1667𝐿)𝜖𝑡

𝐴𝑅𝐶𝐻(14):

ℎ𝑡2 = 191.2 + 0.0545 ∈𝑡−3

2 + 0.0334 ∈𝑡−42 + 0.0110 ∈𝑡−7

2 + 0.0606 ∈𝑡−112 + 0.086 ∈𝑡−13

2

+ 0.139 ∈𝑡−142

Page 67: Series de tiempo: Modelos Heterocedásticos. Aplicación a

67 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

4 Anexos.

4.1 Pruebas de raíz unitaria.

Una prueba alternativa sobre estacionariedad que se ha empleado con frecuencia

en los últimos años se conoce como la prueba de raíz unitaria (Gujarati, 1997). Esta

prueba es sumamente importante ya que el rechazo de la hipótesis nula de raíz

unitaria en favor de alternativas estacionarias tiene interpretaciones económicas

importantes, admitiendo la posibilidad de relaciones a largo plazo entre variables

económicas. Además, en algunas aplicaciones, es deseable probar no

estacionariedad vs. alternativas explosivas (Bhargava, 1986).

La forma más fácil de introducir esta prueba es considerando el siguiente modelo

(Ramos):

𝑋𝑡 = 𝑋𝑡−1 + 휀𝑡 (1)

Donde 휀𝑡 es el término de error estocástico que sigue los supuestos clásicos, a

saber: tiene media cero, varianza constante, y no está autocorrelacionado. Un

término de error con tales propiedades es conocido también como ruido blanco.

La ecuación es una regresión de primer orden, o AR(1), en la cual se relaciona el

valor de X en t sobre t - 1. Si el coeficiente de 𝑋𝑡−1 , es en realidad igual a 1, surge

lo que se conoce como raíz unitaria (una situación de no estacionariedad). Por

consiguiente, si se efectúa la regresión (caminata aleatoria):

𝑋𝑡 = 𝜃𝑋𝑡−1 + 휀𝑡 (2)

y se encuentra que 𝜃=1, entonces se dice que la variable estocástica X tiene una

raíz unitaria. La ecuación puede rescribirse como:

∆𝑋𝑡 = (𝜃 − 1)𝑋𝑡−1 + 휀𝑡 (3)

(4)∆𝑋𝑡 = 𝛿𝑋𝑡−1 + 휀𝑡

Donde 𝛿=(𝜃 − 1), ∆ es el operador de primera diferencia estacionaria.

Se puede escribir (3) como:

∆𝑋𝑡 = (𝑋𝑡 − 𝑋𝑡−1 ) = 휀𝑡

Esta ecuación indica que la primera diferencia de una serie de tiempo de caminata

aleatoria es una estacionaria porque ut es puramente aleatorio. Desde el punto de

vista estadístico, existen dos problemas (Maddala, 1996; Novales, 1997): el primero

es con respecto a los métodos de eliminación de tendencia que se emplean

Page 68: Series de tiempo: Modelos Heterocedásticos. Aplicación a

68 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

(regresión o diferencias). Según Maddala (1996), los resultados de autocorrelación

son espurios siempre que se elimine la tendencia de una serie en diferencia

estacionaria o se diferencie una serie de tendencia estacionaria. El otro problema

es que la distribución del estimado de mínimos cuadrados del parámetro

autorregresivo tiene una distribución no estacionaria cuando existe una raíz unitaria.

Para esto es preciso calcular la distribución en forma numérica en cada caso,

dependiendo de las demás variables que se incluyen en la regresión. Esto

representa la proliferación de las pruebas de raíces unitarias y las tablas asociadas

(Maddala, 1996).

4.2 Dickey-Fuller (DF) y Dickey-Fuller aumentada(ADF)

Para analizar si una serie de tiempo "X" es no estacionaria, se efectúa la regresión

(2) y se determina si “𝜃” es estadísticamente igual a 1 o, en forma equivalente, se

estima e investiga sí 𝛿 =0 (Gujarati, 1997; Johnston y DiNardo, 1997; Pindyck y

Rubinfeld, 1997). El valor t así obtenido no sigue la distribución t de “Student” aun

en muestras grandes (Gujarati, 1997; Johnston y DiNardo, 1997; Pindyck y

Rubinfeld, 1997; Pankratz, 1995).

Bajo la hipótesis nula de que 𝜃 =1, el estadístico "t" calculado convencionalmente

se conoce como “Γ”, cuyos valores críticos han sido tabulados por Dickey y Fuller

con base en simulaciones de Monte Carlo (Gujarati, 1997; Johnston y DiNardo,

1997; Pindyck y Rubinfeld, 1997; Patterson, 2000). Esta prueba se conoce como la

prueba Dickey-Fuller (DF). Si la hipótesis nula de que 𝜃 =1 es rechazada (la serie

de tiempo es estacionaria), se puede utilizar la prueba "t" usual (de Student)

(Gujarati, 1997; Johnston y DiNardo, 1997; Pindyck y Rubinfeld, 1997, Bahskara,

1994).

Sin embargo, estas tablas no son totalmente adecuadas y han sido ampliadas por

MacKinnon a través de simulaciones de Monte Carlo (Gujarati, 1997; Johnston y

DiNardo, 1997). Si el valor absoluto calculado del estadístico Γ (es decir, | Γ |)

excede los valores absolutos críticos de (DF) o de MacKinnon, DF (Dickey y Fuller),

entonces no se rechaza la hipótesis de que la serie de tiempo dada es estacionaria.

Por el contrario, si éste es menor que el valor crítico, la serie de tiempo es no

estacionaria.

Además del estadístico “t” existen otras dos estadísticas de prueba (Maddala,1996):

1. K(1) = T(𝜃 - 1), F(0, 1);

2. F(0, 1) es el estadístico F usual bajo la prueba de hipótesis conjuntas de que

el parámetro de la tendencia es cero y 𝛼 es igual a uno. La prueba Dickey-Fuller

se aplica a regresiones efectuadas en las siguientes formas:

𝑋𝑡 = 𝛿𝑋𝑡−1 + 휀𝑡 (4)

Page 69: Series de tiempo: Modelos Heterocedásticos. Aplicación a

69 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

∆𝑋𝑡 = 𝛽1 + 𝛿𝑋𝑡−1 + 휀𝑡 (5)

∆𝑋𝑡 = 𝛽1 + 𝛽2𝑡 + 𝛿𝑋𝑡−1 + 휀𝑡 (6)

Donde "t" es la variable de tiempo o tendencia. En cada caso, la hipótesis nula es

que 𝛿 = 1, es decir, que hay una raíz unitaria. La diferencia entre (4) y las otras dos

regresiones se encuentra en la inclusión del intercepto y el término de tendencia. Si

el término de error está autocorrelacionado, se modifica (6) como sigue (Gujarati,

1997; Johnston y DiNardo, 1997):

∆𝑋𝑡 = 𝛽1 + 𝛽2𝑡 + 𝛿𝑋𝑡−1 + ∑ 𝜑1∆𝑋𝑡−1 +𝑛𝑖=1 휀𝑡 (7)

Por otro lado, la prueba de hipótesis conjunta en (21), que indica que el PGD es un

paseo aleatorio, se puede probar a través del estadístico F presentado también en

el trabajo de Dickey y Fuller(1981) y así, sucesivamente, para la significancia de los

diversos parámetros.

Page 70: Series de tiempo: Modelos Heterocedásticos. Aplicación a

70 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Bibliografía

Arce, R. d. (1998). Introducción a los modelos autorregresivos con

heterocedasticidad condicional (ARCH).

Brockwell , P. J., & Davis , R. A. (2002). Introduction to Time Series and

Forecasting. New York: Springer.

Casimiro, M. P. (2009). Análisis de series temporales: Modelos Arima. (U. d. (UPV-

EHU), Ed.) País Vasco.

Cobis, A. E. (2011). Tests de bondad de ajuste para modelos de tipos de interés:

Un Enfoque basado en Procesos Empíricos. Santiago de Compostela.

Cryer, J. D., & Chan, K.-S. (2008). Time Series Analysis With Applications in R

(Second Edition ed.). Springer.

Francq, C., & Zakoïan, J.-M. (2010). GARCH Models Structure, Statistical

Inference and Financial Applications. United Kingdom: John Wiley & Sons

Ltd.

Gujarati, D. N., & Porter, D. C. (2009). Econometría (Quinta edición ed.). México,

D. F: McGRAW-HILL.

Kirchgässner, G., & Wolters, J. (2007). Introduction to Modern Time Series

Analysis. Berlin: Springer.

López, C. A. (2004). Probabilidad, variables aleatorias. Valladolid: Universidad de

Valladolid, Secretariado de Publicaciones e Intercambio Editorial.

Markus, K., & Lütkepohl, H. (2004). Applied time series econometrics. Cambridge.:

Cambridge University Press.

Mauricio., J. A. (2007). Introducción al Análisis de Series Temporales. Madrid. :

Universidad Complutense de Madrid. 2007.

Montgomery., D. C., Jennings, C. I., & Kulahci, M. (2008). Introduction to Time

Series Analysis and Forecasting. New Jersey: John Wiley & Sons. Inc.

Ramos, C. A. (s.f.). Conceptos básicos y aspectos matemáticos sobre el análisis

de raíces unitarias y cointegración.

Shumway , R. H., & Stoffer, D. S. (2011). Time Series Analysis and Its Applications

With R Examples. Springer.

TSAY, R. S. (2005). Analysis of Financial Time Series (Second Edition ed.). New

Jersey.: John Wiley & Sons, Inc.

Villavicencio, J. (2014). Introducción a Series de Tiempo.

Page 71: Series de tiempo: Modelos Heterocedásticos. Aplicación a

71 Series de tiempo: Modelos Heterocedásticos. Aplicación a una serie económica usando R.

Yaffee, R. A., & McGee, M. (1999). Introduction to Time Series Analysis and

Forecasting with Applications of SAS and SPSS. Brooklyn, New York:

ACADEMIC PRESS, INC.