Pruebas de Bondad de Ajuste para Copulas
Julieth Veronica Guarın Escudero
Universidad Nacional de Colombia
Facultad de Ciencias, Escuela de Estadıstica
Medellın, Colombia
2016
Pruebas de Bondad de Ajuste para Copulas
Julieth Veronica Guarın Escudero
Tesis de grado presentada como requisito parcial para optar al tıtulo de:
Magister en Ciencias Estadıstica
Director:
Mario Cesar Jaramillo Elorza, Ph.D. en Estadıstica
Lıneas de Investigacion:
Estadıstica industrial
Grupos de Investigacion:
Estadıstica industrial
Universidad Nacional de Colombia
Facultad de Ciencias, Escuela de Estadıstica
Medellın, Colombia
2016
Quiero agradecer especialmente a mi familia,
mis hermanos y mis padres, a quienes dedico
esta tesis, gracias por su apoyo incondicional,
por animarme siempre a seguir adelante y por
estar ahı para mı en todo momento. A mis ami-
gos y companeros del pregrado y maestrıa por
acompanarme en este proceso. A las personas
que conocı durante esta etapa de mi vida que
son y seran siempre mis amigos y que se con-
virtieron en un gran apoyo para mı. Al profesor
Mario cesar Jaramillo por su paciencia.
Agradecimientos
Los autores agradecen de manera especial el apoyo financiero de la convocatoria del progra-
ma nacional de apoyo a estudiantes de posgrado para el fortalecimiento de la investigacion,
creacion e innovacion de la Universidad Nacional de Colombia 2013-2015, como parte del
proyecto de investigacion “Comparacion de pruebas de Bondad de Ajuste Utilizadas para
Seleccionar una Copula Adecuada” Codigo: 29604.
Quiero dar un agradecimiento especial al profesor Mario Cesar Jaramillo por ser un gran
asesor, por su paciencia, disposicion y sus excelentes ensenanzas. Al profesor Carlos Mario
Lopera por su colaboracion y valiosos aportes a este trabajo.
ix
Resumen
Las copulas se han convertido en la actualidad en una herramienta muy fuerte para el
modelamiento de datos en los que la dependencia entre variables aleatorias existe y el su-
puesto de normalidad multivariada no se tiene. Las copulas han sido aplicadas en diversos
campos. En finanzas, las copulas son usadas en el modelado de activos y gestion de ries-
gos. En estudios biomedicos, las copulas son utilizadas en el modelamiento de tiempos de
eventos correlacionados y riesgos competitivos (Escarela, 2006). En ingenierıa, las copulas
son usadas en procesos de control multivariados y en el modelamiento hidrologico (Genest,
2007). Dicho esto el interes en modelar problemas multivariados que involucran variables
dependientes se generaliza en diversas areas, lo que convierte a esta metodologıa en una
forma conveniente de modelar la estructura de dependencia en distribuciones conjuntas de
variables aleatorias.
Sin embargo, en la practica no existe un metodo estandar para seleccionar una copula entre
una variedad de posibles modelos, por lo que la eleccion de una copula adecuada es uno
de los grandes retos al que se enfrenta el investigador. En este trabajo se pretende propor-
cionar un mecanismo de seleccion de una copula mediante pruebas de bondad de ajuste
analıticas y graficas, estimando el parametro de dependencia con metodos parametricos y
no parametricos y compararlos vıa simulacion.
Palabras clave: Copulas, Pruebas de bondad de ajuste, Dependencia
Abstract
Copulas have become a useful tool for modeling data in which the dependence between
random variables exists and there is not the multivariate normality assumption. The co-
pulas have been applied in various fields. In finance, copulas are used in the modeling of
asset and risk management. In biomedical studies, copulas are used in the modeling of the
correlation between lifetimes and competitive correlated events (Escarela, 2006) risks. In
engineering, copulas are used in multivariate process monitoring and hydrological mode-
ling (Genest, 2007). The interest in modeling multivariate problems involving dependent
variables is generalized in several areas, making this methodology in a convenient way to
model the dependence structure in the joint distributions of random variables. However, in
practice there is no standard method for selecting a copula between a variety of possible
models, so that the choice of an appropriate copula is one of the greatest challenges facing
the researcher. This paper aims to provide a mechanism for selecting a copula by testing
goodness of fit analysis and graphical methods, estimating the dependence parameter by
parametric and nonparametric methods and compare them via simulation.
Keywords: Copulas, Goodness of fit test, Dependence.
Contenido
Agradecimientos VII
Resumen IX
1. Introduccion 1
2. Marco Teorico 3
2.1. Copula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2. Teorema de Sklar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3. Familia Elıptica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.4. Familia Arquimediana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.5. τ de Kendall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.5.1. Teorema: Propiedad de invarianza del τ de Kendall . . . . . . . . . 7
3. Metodos Graficos para Detectar Dependencia 9
3.1. χ-Plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2. K-Plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.3. Graficos para detectar dependencia en R . . . . . . . . . . . . . . . . . . . 11
4. Metodos Graficos Para Seleccionar una Copula Arquimediana 37
4.1. Estimacion del Parametro de Dependencia α . . . . . . . . . . . . . . . . . 37
4.1.1. Estimacion no Parametrica: Metodo de Genest y Rivest . . . . . . . 37
4.1.2. Estimacion Parametrica Usando Maxima Verosimilitud . . . . . . . 38
4.2. Pruebas Graficas de Bondad de Ajuste Para Copulas Arquimedianas . . . . 39
4.2.1. Aproximacion Usando la Funcion de Distribucion Condicional de
Y |X (Metodo grafico I): . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2. Aproximacion Usando La Funcion de Distribucion de la Copula (Meto-
do grafico II): . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.3. Aproximacion Usando Una Estimacion No Parametrica de la Funcion
de Distribucion de la Copula (Metodo grafico III): . . . . . . . . . . 40
4.3. Aproximacion Teorica de los Metodos Graficos de Bondad de Ajuste . . . . 41
4.3.1. Prueba de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . 42
xii Contenido
5. Simulacion de los Metodos Graficos de Bondad de Ajuste 43
5.1. Simulacion Copula Clayton . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.1.1. Copula Clayton Usando τ = 0.2 . . . . . . . . . . . . . . . . . . . . 45
5.1.2. Copula Clayton Usando τ = 0.5 . . . . . . . . . . . . . . . . . . . . 51
5.1.3. Copula Clayton Usando τ = 0.8 . . . . . . . . . . . . . . . . . . . . 58
5.2. Simulacion Copula Gumbel . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.2.1. Copula Gumbel Usando τ = 0.2 . . . . . . . . . . . . . . . . . . . . 65
5.2.2. Copula Gumbel Usando τ = 0.5 . . . . . . . . . . . . . . . . . . . . 71
5.2.3. Copula Gumbel Usando τ = 0.8 . . . . . . . . . . . . . . . . . . . . 78
5.3. Simulacion Copula Frank . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.3.1. Copula Frank Usando τ = 0.2 . . . . . . . . . . . . . . . . . . . . . 85
5.3.2. Copula Frank Usando τ = 0.5 . . . . . . . . . . . . . . . . . . . . . 92
5.3.3. Copula Frank Usando τ = 0.8 . . . . . . . . . . . . . . . . . . . . . 99
6. Pruebas de Bondad de Ajuste de Vuong y Clarke 107
6.1. Prueba de Vuong . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.2. Prueba de Clarke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.3. Simulacion en R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.3.1. Prueba de Vuong y Clarke: Datos simulados de la copula Frank . . 115
6.3.2. Prueba de Vuong y Clarke: Datos simulados de la copula Clayton . 116
6.3.3. Prueba de Vuong y Clarke: Datos simulados de la copula Gumbel . 117
6.3.4. Prueba de Vuong y Clarke: Datos simulados de la copula Joe . . . . 118
7. Conclusiones y Trabajos Futuros 119
A. Tablas Primeras y segundas derivadas de las familias copulas 121
B. Codigo Metodos Graficos para Detectar Dependencia 125
C. Codigo Pruebas Graficas de Bondad de Ajuste 129
D. Codigo Pruebas de Vuong y Clarke 151
Lista de Tablas
2-1. Forma de τ para diferentes copulas arquimedianas . . . . . . . . . . . . . . 6
3-1. Escenarios de Simulacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5-1. Familias de Copulas de un Parametro . . . . . . . . . . . . . . . . . . . . . 44
5-2. Estimacion de α para la copula Clayton, τ = 0.2 . . . . . . . . . . . . . . . 46
5-3. Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Clayton
con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5-4. Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Clayton
con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5-5. Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Clayton
con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5-6. Estimacion de α para la copula Clayton, τ = 0.5 . . . . . . . . . . . . . . . 52
5-7. Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Clayton
con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5-8. Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Clayton
con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5-9. Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Clayton
con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5-10.Estimacion de α para la copula Clayton, τ = 0.8 . . . . . . . . . . . . . . . 59
5-11.Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Clayton
con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5-12.Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Clayton
con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5-13.Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Clayton
con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5-14.Estimacion de α para la copula Gumbel, τ = 0.2 . . . . . . . . . . . . . . . 66
5-15.Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Gumbel
con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5-16.Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Gumbel
con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5-17.Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Gumbel
con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5-18.Estimacion de α para la copula Gumbel, τ = 0.5 . . . . . . . . . . . . . . . 72
xiv Lista de Tablas
5-19.Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Gumbel
con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5-20.Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Gumbel
con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5-21.Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Gumbel
con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5-22.Estimacion de α para la copula Gumbel, τ = 0.8 . . . . . . . . . . . . . . . 79
5-23.Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Gumbel
con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5-24.Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Gumbel
con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5-25.Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Gumbel
con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5-26.Estimacion de α para la copula Frank, τ = 0.2 . . . . . . . . . . . . . . . . 86
5-27.Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Frank con
τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5-28.Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Frank
con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5-29.Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Frank
con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5-30.Estimacion de α para la copula Frank, τ = 0.5 . . . . . . . . . . . . . . . . 93
5-31.Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Frank con
τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5-32.Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Frank
con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5-33.Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Frank
con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5-34.Estimacion de α para la copula Frank, τ = 0.8 . . . . . . . . . . . . . . . . 100
5-35.Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Frank con
τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5-36.Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Frank
con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5-37.Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Frank
con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6-1. Resultados prueba de Voung . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6-2. Resultados prueba de Clarke . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6-3. Resultados pruebas de Voung y Clarke usando el paquete CDVine de R . . 114
6-4. Resultados pruebas de Voung y Clarke Simulando datos de la copula Frank
con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
Lista de Tablas xv
6-5. Resultados pruebas de Voung y Clarke Simulando datos de la copula Frank
con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6-6. Resultados pruebas de Voung y Clarke Simulando datos de la copula Frank
con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6-7. Resultados pruebas de Voung y Clarke Simulando datos de la copula Clayton
con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6-8. Resultados pruebas de Voung y Clarke Simulando datos de la copula Clayton
con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6-9. Resultados pruebas de Voung y Clarke Simulando datos de la copula Clayton
con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6-10.Resultados pruebas de Voung y Clarke Simulando datos de la copula Gumbel
con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6-11.Resultados pruebas de Voung y Clarke Simulando datos de la copula Gumbel
con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6-12.Resultados pruebas de Voung y Clarke Simulando datos de la copula Gumbel
con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6-13.Resultados pruebas de Voung y Clarke Simulando datos de la copula Joe
con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6-14.Resultados pruebas de Voung y Clarke Simulando datos de la copula Joe
con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6-15.Resultados pruebas de Voung y Clarke Simulando datos de la copula Joe
con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
A-1. Primera derivada de las familias copulas . . . . . . . . . . . . . . . . . . . 121
A-2. Segunda derivada de las familias copulas . . . . . . . . . . . . . . . . . . . 122
A-3. Segunda derivada de las familias copulas . . . . . . . . . . . . . . . . . . . 123
Lista de Graficas
3-1. Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 20 usando la copula Clayton con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3-2. Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 20 usando la copula Frank con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3-3. Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 20 usando la copula Gausiana con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3-4. Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 20 usando la copula Gumbel con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3-5. Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 20 usando la copula Joe con τ = 0.3 (arriba), τ = 0.5 (medio) y τ = 0.8
(abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3-6. Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 50 usando la copula Clayton con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3-7. Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 50 usando la copula Frank con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3-8. Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 50 usando la copula Gausiana con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3-9. Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 50 usando la copula Gumbel con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3-10.Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 50 usando la copula Joe con τ = 0.3 (arriba), τ = 0.5 (medio) y τ = 0.8
(abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3-11.Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 100 usando la copula Clayton con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
xviii Lista de Graficas
3-12.Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 100 usando la copula Frank con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3-13.Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 100 usando la copula Gausiana con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3-14.Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 100 usando la copula Gumbel con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3-15.Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 100 usando la copula Joe con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3-16.Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 200 usando la copula Clayton con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3-17.Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 200 usando la copula Frank con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3-18.Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 200 usando la copula Gausiana con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3-19.Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 200 usando la copula Gumbel con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3-20.Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 200 usando la copula Joe con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5-1. Metodo grafico I aplicado las copulas resultantes por Genest y Rivest . . . 47
5-2. Metodo grafico I aplicado las copulas resultantes por maxima Verosimilitud 47
5-3. Metodo grafico II aplicado las copulas resultantes por Genest y Rivest . . . 48
5-4. Metodo grafico II aplicado las copulas resultantes por maxima verosimilitud 48
5-5. Metodo grafico III aplicado las copulas resultantes por Genest y Rivest . . 49
5-6. Metodo grafico III aplicado las copulas resultantes por maxima verosimilitud 49
5-7. Metodo grafico I aplicado las copulas resultantes por Genest y Rivest . . . 53
5-8. Metodo grafico I aplicado las copulas resultantes por maxima Verosimilitud 53
5-9. Metodo grafico II aplicado las copulas resultantes por Genest y Rivest . . . 54
5-10.Metodo grafico II aplicado las copulas resultantes por maxima Verosimilitud 54
5-11.Metodo grafico III aplicado las copulas resultantes por Genest y Rivest . . 55
5-12.Metodo grafico III aplicado las copulas resultantes por maxima verosimilitud 55
Lista de Graficas xix
5-13.Metodo grafico I aplicado las copulas resultantes por Genest y Rivest . . . 60
5-14.Metodo grafico I aplicado las copulas resultantes por maxima Verosimilitud 60
5-15.Metodo grafico II aplicado las copulas resultantes por Genest y Rivest . . . 61
5-16.Metodo grafico II aplicado las copulas resultantes por maxima Verosimilitud 61
5-17.Metodo grafico III aplicado las copulas resultantes por Genest y Rivest . . 62
5-18.Metodo grafico III aplicado las copulas resultantes por maxima verosimilitud 62
5-19.Metodo grafico I aplicado las copulas resultantes por Genest y Rivest, Copu-
la Gumbel con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5-20.Metodo grafico I aplicado las copulas resultantes por maxima Verosimilitud,
Copula Gumbel con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5-21.Metodo grafico II aplicado las copulas resultantes por Genest y Rivest, Copu-
la Gumbel con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5-22.Metodo grafico II aplicado las copulas resultantes por maxima verosimilitud,
Copula Gumbel con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5-23.Metodo grafico III aplicado las copulas resultantes por Genest y Rivest,
Copula Gumbel con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5-24.Metodo grafico III aplicado las copulas resultantes por maxima verosimili-
tud, Copula Gumbel con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . 69
5-25.Metodo grafico I aplicado las copulas resultantes por Genest y Rivest, Copu-
la Gumbel con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5-26.Metodo grafico I aplicado las copulas resultantes por maxima Verosimilitud,
Copula Gumbel con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5-27.Metodo grafico II aplicado las copulas resultantes por Genest y Rivest, Copu-
la Gumbel con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5-28.Metodo grafico II aplicado las copulas resultantes por maxima verosimilitud,
Copula Gumbel con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5-29.Metodo grafico III aplicado las copulas resultantes por Genest y Rivest,
Copula Gumbel con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5-30.Metodo grafico III aplicado las copulas resultantes por maxima verosimili-
tud, Copula Gumbel con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . 75
5-31.Metodo grafico I aplicado las copulas resultantes por Genest y Rivest, Copu-
la Gumbel con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5-32.Metodo grafico I aplicado las copulas resultantes por maxima Verosimilitud,
Copula Gumbel con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5-33.Metodo grafico II aplicado las copulas resultantes por Genest y Rivest, Copu-
la Gumbel con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5-34.Metodo grafico II aplicado las copulas resultantes por maxima verosimilitud,
Copula Gumbel con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5-35.Metodo grafico III aplicado las copulas resultantes por Genest y Rivest,
Copula Gumbel con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . 82
xx Lista de Graficas
5-36.Metodo grafico III aplicado las copulas resultantes por maxima verosimili-
tud, Copula Gumbel con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . 82
5-37.Metodo grafico I aplicado las copulas resultantes por Genest y Rivest, Copu-
la Frank con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5-38.Metodo grafico I aplicado las copulas resultantes por maxima Verosimilitud,
Copula Frank con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5-39.Metodo grafico II aplicado las copulas resultantes por Genest y Rivest, Copu-
la Frank con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5-40.Metodo grafico II aplicado las copulas resultantes por maxima verosimilitud,
Copula Frank con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5-41.Metodo grafico III aplicado las copulas resultantes por Genest y Rivest,
Copula Frank con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5-42.Metodo grafico III aplicado las copulas resultantes por maxima verosimili-
tud, Copula Frank con τ = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . 89
5-43.Metodo grafico I aplicado las copulas resultantes por Genest y Rivest, Copu-
la Frank con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5-44.Metodo grafico I aplicado las copulas resultantes por maxima Verosimilitud,
Copula Frank con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5-45.Metodo grafico II aplicado las copulas resultantes por Genest y Rivest, Copu-
la Frank con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5-46.Metodo grafico II aplicado las copulas resultantes por maxima verosimilitud,
Copula Frank con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5-47.Metodo grafico III aplicado las copulas resultantes por Genest y Rivest,
Copula Frank con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5-48.Metodo grafico III aplicado las copulas resultantes por maxima verosimili-
tud, Copula Frank con τ = 0.5 . . . . . . . . . . . . . . . . . . . . . . . . . 96
5-49.Metodo grafico I aplicado las copulas resultantes por Genest y Rivest, Copu-
la Frank con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5-50.Metodo grafico I aplicado las copulas resultantes por maxima Verosimilitud,
Copula Frank con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5-51.Metodo grafico II aplicado las copulas resultantes por Genest y Rivest, Copu-
la Frank con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5-52.Metodo grafico II aplicado las copulas resultantes por maxima verosimilitud,
Copula Frank con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5-53.Metodo grafico III aplicado las copulas resultantes por Genest y Rivest,
Copula Frank con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5-54.Metodo grafico III aplicado las copulas resultantes por maxima verosimili-
tud, Copula Frank con τ = 0.8 . . . . . . . . . . . . . . . . . . . . . . . . . 103
1. Introduccion
Las funciones copula bidimensionales son funciones bivariadas que unen dos funciones de
distribucion univariadas para construir funciones de distribucion conjuntas. La copula re-
presenta una forma parametrica conveniente para modelar la estructura de dependencia en
distribuciones conjuntas de variables aleatorias (Escarela, 2003). Este concepto de copula
permite construir modelos que van mas alla de los estandares en el analisis de dependencia
entre variables estocasticas. La metodologıa de copula es capaz de capturar relaciones no
lineales y en particular permite relacionar eventos extremos que ocurren en la naturaleza
(Nelsen, 2006).
La palabra copula aparecio por primera vez empleada en un sentido matematico o estadısti-
co por Abe Sklar en 1959, esta teorıa inicia con el problema expuesto por Frechet sobre la
relacion entre una funcion de distribucion de probabilidad multidimensional y sus margi-
nales de menor dimension y que Sklar resolvio en el teorema que lleva su nombre, donde
define funciones que “unen” las funciones de distribucion marginales para formar funciones
de distribucion multivariantes (Nelsen, 2006). Fue Sklar quien establecio el concepto tal y
como lo conocemos en la actualidad y desarrollo gran parte de la teorıa con su teorema que
provee un camino para analizar variables aleatorias a partir de su distribucion conjunta,
sin estudiar las distribuciones marginales (Joe, 1997).
A pesar de esto el estudio de las copulas y sus apliaciones es un fenomeno moderno, incluso
la palabra copula era difıcil de localizar en la literatura estadıstica, la primera referencia en
el “Current Index to Statistics” para un artıculo usando la palabra “Copula” en el tıtulo o
como una palabra clave esta en el volumen 7 (1981) (artıculo de Schweizer y Wolff. 1981),
de hecho en los primeros 18 volumenes (1975-1992) del “Current Index to Statistics” solo
aparecen 8 referencias a documentos que citan la palabra copula. Durante los proximos 10
volumenes hay 71 referencias (1993-2002) (Nelsen, 2006).
Actualmente las copulas son una herramienta muy fuerte de modelamiento de datos en los
que la dependencia entre variables aleatorias es de interes. La mayorıa de sus aplicaciones
se han realizado en el campo financiero, sin embargo el uso de esta metodologıa se ha
generalizado en diversas areas como la ingenierıa, medicina, agronomıa, actuarıa entre
otras (Lopera et al., 2012).
Uno de los problemas que se enfrenta cuando se trabaja con copulas, es el de elegir la copula
que mejor captura la estructura de dependencia y que mejor se ajusta a los datos entre
2 1 Introduccion
una familia de copulas. En este trabajo, se presentan tres metodos graficos de bondad de
ajuste que representan una ayuda visual para seleccionar una copula adecuada, posterior-
mente, se usa la prueba analıtica de Kolmogorov-Smirnov para elegir un modelo adecuado,
ademas de esto, se exploran las pruebas teoricas de bondad de ajuste de Voung y Clarke.
Inicialmente, antes de realizar el proceso de ajuste y seleccion de un copula, se mide el
grado de dependencia entre las variables aleatorias. Existen pruebas graficas que permiten
medir el grado de dependencia. Entre ellas se encuentran los graficos Chi-Plot y K-Plot,
el primero fue propuesto inicialmente por Fisher (1985) y se ilustro de mejor manera en
Fisher (2001), el grafico K-Plot (Kendall Plot) fue propuesto por Genest (2003), ambas
metodologıas son una herramienta util para estudiar la dependencia entre dos variables
aleatorias.
En el capıtulo 2 se definen conceptos fundamentales usados en la teorıa de copulas tales
como el parametro de dependencia usado en este trabajo, las funciones copula usadas y
sus propiedades mas importantes. En el capıtulo 3 se exploraran algunos metodos graficos
para detectar dependencia entre dos variables aleatorias.
En el capıtulo 4 se muestran tres pruebas graficas de bondad de ajuste, estimando el
parametro de la copula con metodos parametricos y no parametricos y la aproximacion
teorica de los metodos graficos de bondad de ajuste usando la prueba de Kolmogorov-
Smirnov. En el capıtulo 5 se presentan los resultados obtenidos vıa simulacion de los meto-
dos expuestos en el capıtulo 4 usando R.
En el capıtulo 6, se presentan las pruebas teoricas de bondad de ajuste de Voung y Clarke
y su implementacion en R. Finalmente en el capıtulo 7 se muestran las conclusiones del
estudio y trabajos futuros.
2. Marco Teorico
A continuacion se presentan algunos conceptos importantes para el desarrollo de este tra-
bajo relacionados con familias copula, sus propiedades y el concepto de dependencia.
2.1. Copula
Sean X y Y variables aleatorias con funciones de distribucion marginales F (x) = P [X ≤ x]
y G (y) = P [Y ≤ y], respectivamente, y funcion de distribucion conjunta H (x, y) =
P [X ≤ x, Y ≤ y].
Ahora bien, al par de numeros (x, y) se le puede asociar tres numeros F (x), G (y) y H (x, y),
donde cada uno de ellos pertenece al intervalo [0, 1], es decir, a cada (x, y) le corresponde
un punto (F (x) , G (y)) en el espacio producto [0, 1] × [0, 1], y a este par ordenado le
corresponde un numero H (x, y) en [0, 1] (Nelsen, 2006).
C : [0, 1]× [0, 1]→ [0, 1]
(F (x) , G (y))→ H (x, y)
Como se demuestra en Nelsen (2006), esta correspondencia, que asigna el valor de la funcion
de distribucion conjunta a cada par ordenado de los valores de las funciones de distribucion
marginales, es de hecho una funcion de distribucion (Jaramillo, 2014). Tales funciones son
copulas (Genest, 1986).
Una copula bivariada es una funcion C : [0, 1] × [0, 1] → [0, 1] que satisface las siguientes
condiciones (Jianfei, 2004):
C(u, 1) = u;C(1, v) = v, u, v ∈ [0, 1] (2-1)
C(u, 0) = 0 = C(0, v)
Para todo u1, u2, v1, v2 ∈ [0, 1], tal que u1 ≤ u2 y v1 ≤ v2
VC ([u1, u2]× [v1, v2]) = C(u2, v2)− C(u2, v1)− C(u1, v2) + C(u1, v1) ≥ 0 (2-2)
4 2 Marco Teorico
2.2. Teorema de Sklar
Teorema 2.1. : Sea H una funcion de distribucion conjunta con marginales F y G. En-
tonces existe una copula C tal que para todo x, y ∈ <,
H (x, y) = C (F (x) , G (y))
Si F y G son continuas, entonces C es unica; en otro caso, C esta unicamente determinada
en RanF × RanG, donde RanF y RanG denotan el rango de F y G respectivamente.
Inversamente si C es una copula y F y G son funciones de distribucion, entonces la
funcion H es una funcion de distribucion conjunta con marginales F y G (Nelsen, 2006) .
Una demostracion del teorema de Sklar puede encontrarse en Schweizer (1983). Este teo-
rema establece que, en el contexto de parejas aleatorias continuas, es posible construir
una funcion de distribucion bivariada en terminos de dos funciones de distribucion conti-
nuas univariadas y una copula que permite relaciones de dependencia entre dos variables
aleatorias individuales.
2.3. Familia Elıptica
Esta familia de copulas esta caracterizada por compartir propiedades de la normal multi-
variada (Embrechts et al., 2001) tales como simetrıa, o el hecho de que la estructura de
dependencia este totalmente determinada por la matriz de correlacion, ademas facilitan
la obtencion de modelos multivariantes para extremos y otras formas de dependencia no
normales. Son de gran importancia en finanzas y manejo de riesgos por su facil implemen-
tacion.
Las copulas que pertenecen a esta familia estan asociadas a las distribuciones elıpticas por
el teorema de Sklar, como por ejemplo, las copulas Normales y t-Student. Sean F una
funcion de distribucion acumulada de una distribucion elıptica multivariada, Fi la funcion
de distribucion acumulada de la i-esima marginal y F−1i su respectiva funcion inversa,
i = 1, . . . , n (Jaramillo, 2014). La copula elıptica determinada por F es:
C (u1, u2, . . . , un) = F(F−1
1 (u1) , F−11 (u2) , . . . , F−1
1 (un))
Se llama copula elıptica bivariada a toda copula de la forma:
Cp (u, v) =1√
1− ρ2
∫ Φ−1g,1(u)
−∞
∫ Φ−1g,2(v)
−∞g
(x2 − 2ρxy + y2√
1− ρ2
)dxdy = H
(Φ−1g,1 (u) ,Φ−1
g,2 (v))
La cual es la distribucion conjunta de las variables X y Y, Φ−1g,1 (u), Φ−1
g,2 (v) son las respec-
tivas funciones cuantiles y ρ el coeficiente de correlacion entre X y Y.
2.4 Familia Arquimediana 5
La copula normal bivariada tiene la forma:
C(u, v) = ΦG
(Φ−1 (u) ,Φ−1 (v)
)=
∫ Φ−1(u)
−∞
∫ φ−1(v)
−∞
1
2π√
1− θ2exp
(− (x2 − 2θxy + y2)
2 (1− θ2)
)dxdy
donde Φ es la funcion de distribucion acumulada de la distribucion normal estandar,
ΦG (u, v) es la distribucion normal estandar bivariada, con parametro de dependencia θ
en (−1, 1) (Lopera et al., 2012).
Por otro lado, un ejemplo de una copula elıptica con dos parametros de dependencia, es la
distribucion t bivariada con w grados de libertad y correlacion ρ:
C (u, v) =
∫ t−1θ1
(u)
−∞
∫ t−1θ2
(v)
−∞
1
2π√
1− θ22
(1 +
x2 − 2θ2xy + y2
w (1− θ22)
)−(θ1+2)/2
donde t−1θ1
(u) denota la inversa de la funcion de distribucion acumulada de la distribucion
t univariada estandar con θ1 grados de libertad y t−1θ2
(v) denota la inversa de la c.d.f
de la distribucion t univariada estandar con θ2 grados de libertad. En este caso los dos
parametros de dependencia son (θ1, θ2), donde el parametro θ1 controla la pesadez de las
colas (Lopera et al., 2012).
2.4. Familia Arquimediana
Las copulas Arquimedianas no surgieron originalmente en la estadıstica, aparecieron en el
estudio de espacios metricos probabilısticos, donde fueron estudiadas como parte del desa-
rrollo de una version probabilıstica de la desigualdad triangular. La seleccion de esta familia
se debe a que se puede simular facilmente, ademas los calculos de medidas de dependencia
se simplifican, lo cual permite una mejor estimacion de los parametros (Jaramillo, 2014).
la distribucion multivariada de esta familia para n variables, esta representada por:
C (u1, . . . , un) = φ−1
[n∑i=1
φ (ui)
]donde φ es el generador de la copula C, para el caso de copulas bivariadas, la familia
arquimediana se representa por (Szego, 2002):
Cα (u, v) = φ−1α [φα (u) + φα (v)] , 0 ≤ u, v ≤ 1
donde φα se denomina el generador de la copula Cα, el cual es una funcion convexa y
decreciente tal que φα > 0. Ademas, su inversa φ−1α es la transformada de laplace de una
variable latente denotada τ , la cual induce la dependencia α. La siguiente tabla muestra
la forma del generador φ para las copulas mas comunes de la familia arquimediana y su
espacio parametral:
6 2 Marco Teorico
Familia Generador φα (t) φ′
α (t) τ = 1 + 4∫ 1
0φ(t)
φ′ (t)dt Espacio de τ
1 1α (t−α − 1) −t(−1−α) α
α+2 [−1, 1] \ 02 (1− t)α −
(α ∗ (1− t)(−1+α)
)1− 2
α [−1, 1]
3 ln(
1−α(1−t)t
)(−1+α)
(t−α∗t+α∗t2) 1 + 4
(−16α−((−1+α)2 log[1−α])
6α2
) [−0.181726, 13
]4 (− ln t)
αα(− log(t)α
t log(t)
)1− α−1 [0, 1]
5 − ln(e−αt−1e−α−1
)α
1−exp(αt) 1− 4α [D1 (−α)− 1] [−1, 1] \ 0
Donde D1 (α) := 1α
∫ α0
tet−1dt y D1(−α) = D1(α) + 1
2
6 − ln[1− (1− t)α] α(1−t)−1+α
−1+(1−t)α No tiene forma cerrada Discontinuidades
7 − ln[αt+ (1− α)] α−1+α−αt
2(−1+α)(α+log[1−α]−α log[1−α])α2 [−1, 0]
8 1−t1+(α−1)t − α
(1−t+αt)2−4+α3α [−1, 13 ]
9 ln(1− α ln t) − αt− αt
log(t)
No tiene forma cerrada Discontinua
10 ln(2t−α − 1) 2αt(−2+tα) No tiene forma cerrada Discontinua
11 ln(2− tα) αt−1+α
−2+tα No tiene forma cerrada Discontinua
12(1t − 1
)α −α(−1+ 1t )−1+α
t2 1− 23α
[13 , 1]
13 (1− ln t)α − 1 −α(1−log(t))
−1+α
t No tiene forma cerrada discontinua
14(t−1α − 1
)α (−1+t−( 1
α))α
t(−1+t
1α
) 1− 42+4α
[13 , 1]
15(
1− t 1α
)α−(t−1+
1α
(1− t 1
α
)−1+α)1 + 4
2−4α [−1, 1]
16(αt + 1
)(1− t) −1− α
t2 No tiene forma cerrada Discontinua
17 − ln(
(1+t)−α−12−α−1
)α(1+t)−1+α
1−(1+t)α No tiene forma cerrada Discontinua
18 eα
(t−1) −α exp( α−1+t )
(−1+t)2 1− 43α
[13 , 1]
19 eαt − eα −α exp(αt )
t2 No tiene forma cerrada Discontinua
20 exp (t−α)− e −(α exp (t−α) t−1−α
)No tiene forma cerrada Discontinua
Tabla 2-1.: Forma de τ para diferentes copulas arquimedianas
Teorema 2.2. Sea C una copula arquimediana generada por φ, de la forma: Cα (u, v) =
φ−1α [φα (u) + φα (v)]. Para cualquier t ∈ [0, 1], la copula C esta unicamente determina-
da por la funcion K(t) = t − φ(t)
φ′ (t)definida sobre el intervalo [0, 1] (Ver teorema 3.10 y
demostracion en De Matteis (2001)).
Teorema 2.3. :Sean U y V variables aleatorias uniformes cuya funcion de distribucion
conjunta es la copula arquimediana C generada por φ ∈ Ω. Entonces la funcion K dada en
el teorema 2.2 es la funcion de distribucion de la variable aleatoria C(U, V ) (De Matteis,
2001).
2.5 τ de Kendall 7
2.5. τ de Kendall
La version muestral de la medida de asociacion conocida como tau de Kendall esta definida
en terminos de concordancia, como sigue: Sea (x1, y1) , (x2, y2) , . . . , (xn, yn) denota una
muestra aleatoria de n observaciones de un vector (X, Y ) de variables aleatorias contınuas.
Hay(n2
)pares distintos (xi, yi) y (xj, yj) de observaciones en la muestra, y cada par es
concordante o discordante. Sea c el numero de pares concordantes y d el numero de pares
discordantes. Entonces el τ de Kendall para la muestra esta definido como (De Matteis,
2001):
τ =c− dc+ d
=(c− d)(
n2
) (2-3)
Conocido tambien como:
τ =
(n
2
)−1∑i<j
sign [(Xi −Xj) (Yi − Yj)] (2-4)
De manera equivalente, τ es la probabilidad de concordancia menos la probabilidad de dis-
cordancia para pares de observaciones (xi, yi) y (xj, yj) que es seleccionada aleatoriamente
de la muestra. Otra version del τ de Kendall para un vector aleatorio continuo (X, Y )
con funcion de distribucion conjunta H esta definida similarmente. Sea (X1, Y1) y (X2, Y2)
vectores aleatorios independientes e identicamente distribuidos cada uno con funcion de
distribucion conjunta H . Entonces el τ de Kendall esta definido como la probabilidad de
concordancia menos la probabilidad de discordancia (Nelsen, 2006):
τ = τX,Y = P [(X1 −X2) (Y1 − Y2) > 0]− P [(X1 −X2) (Y1 − Y2) < 0]
2.5.1. Teorema: Propiedad de invarianza del τ de Kendall
Teorema 2.4. : Sean (X1, Y1) y (X2, Y2) dos variables aleatorias bivariadas independientes,
cada una con la distribucion bivariada comun de (X, Y ), y sean g y h dos funciones reales
crecientes, entonces τ [g (X) , h (Y )] = τ (X, Y ). En Joe (1997) puede verse la prueba de
este teorema.
3. Metodos Graficos para Detectar
Dependencia
En esta seccion se definen dos metodos graficos para detectar dependencia, llamados Chi-
Plot y K-plot, que resultan ser una herramienta muy util al momento de realizar un analisis
previo sobre la dependencia funcional de dos variables aleatorias.
3.1. χ-Plot
El grafico Chi-Plot fue propuesto inicialmente por Fisher (1985). Su construccion esta
basada en el estadıstico Chi-cuadrado para independencia. Sea (X1, Y1) , . . . , (Xn, Yn) una
muestra aleatoria bivariada de una funcion de distribucion conjunta y continua, H (X, Y ),
y sea I (A) la funcion indicadora del evento A. Para cada observacion (xi, yi) se desarrolla
el siguiente procedimiento (Moreno, 2012):
Hi =1
n− 1
∑j 6=i
I (Xj ≤ Xi, Yj ≤ Yi)
Fi =1
n− 1
∑j 6=i
I (Xj ≤ Xi)
Gi =1
n− 1
∑j 6=i
I (Yj ≤ Yi)
Ninguna de estas cantidades dependen exclusivamente de los rangos de las observaciones,
Fisher (1985) proponen graficar los pares (λi, χi), donde:
χi =Hi − FiGi√
Fi (1− Fi)Gi (1−Gi),
λi = 4 sign(FiGi
)max
(F 2i , G
2i
),
y Fi = Fi − 1/2, Gi = Gi − 1/2 para i ∈ 1, . . . , nλi es una medida de distancia de la observacion (Xi, Yi) al centro de los datos (Moreno,
2012).
10 3 Metodos Graficos para Detectar Dependencia
segun Del Rio (2007) todos los valores de λi deben estar en el intervalo [−1, 1]. El Chi-Plot
es una grafico de dispersion de los pares (λi, χi) , i = 1, . . . , n.
Al observar el grafico Chi-Plot, si los datos constituyen una muestra bivariada con margi-
narles continuas independientes, los valores de λi estaran distribuidos uniformemente en el
grafico. Sin embargo, si X y Y estan asociados, los valores de λi se mostraran formando
grupos, en particular, valores positivos de λi indican que Xi y Yi son relativamente grandes
o pequenos (al mismo tiempo) en relacion a sus medianas, mientras que si los valores de λison negativos, corresponde a que Xi and Yi estan ubicados en lados opuestos con respecto
a sus medianas (Del Rio, 2007).
Las lıneas horizontales del grafico estan dadas por χ = −cp/n1/2 y χ = cp/n1/2, donde cp
se selecciona de manera que aproximadamente el 100p% de los pares (λi, χi) esten entre
las dos lıneas horizontales. Para p = 0.90, 0.95, 0.99 los valores de cp son 1.54, 1.78 y
2.18 respectivamente (Fisher, 2001). Usando el metodo Monte Carlo se pueden calcular
otros valores. Tambien se recomienda representar solamente los pares para los que |λi| <4(
1n−1− 1
2
)2, con el fin de evitar observaciones enganosas (Del Rio, 2007).
3.2. K-Plot
El K-plot (Kendall-plot) fue creado por Genest (2003). Esta herramienta se construye
sobre los rangos de las observaciones usando la transformacion integral de probabilidades
multivariadas, produciendo un grafico similar al Q-Q plot convencional (Del Rio, 2007).
Sea (X1, Y1) , . . . , (Xn, Yn) una muestra aleatoria de una funcion de distribucion conjunta
y continua, H (X, Y ). Para construir el grafico K-Plot se procede de la siguiente manera:
1. Para cada 1 ≤ i ≤ n calcule Hi (como en el grafico Chi-Plot).
2. Ordene los valores de Hi de manera que H(1) ≤ · · · ≤ H(n).
3. Grafique los pares(Wi:n, H(i)
), donde Wi:n es la esperanza del i-esimo estadıstico de
orden en una muestra de tamano n, los cuales se calculan como:
Wi:n = n
(n− 1
i− 1
)∫ 1
0
w [K0 (w)]i−1 [1−K0 (w)]n−i dK0 (w)
con
K0 (w) = w − w log (w) 0 ≤ w ≤ 1
Finalmente se realiza un gafico de puntos de H(i) contra Wi:n. A medida que los
puntos se alejan de la diagonal, se asume dependencia funcional entre las dos variables
aleatorias (Moreno, 2012).
3.3 Graficos para detectar dependencia en R 11
3.3. Graficos para detectar dependencia en R
En esta seccion se presenta una simulacion para evaluar el efecto de algunos factores
que pueden afectar el desempeno de los graficos de dependencia tales como: el nivel
de dependencia, el tamano de muestra y la copula empleada para construir la funcion
bivariada. La implementacion de los graficos Chi-plot y K-plot se realizo usando el
paquete CDVine de R.
El alcance del estudio pretende abarcar varios escenarios, donde se compara el grafico
de dispersion con el Chi-Plot y K-plot, variando el tamano de muestra en 20, 50, 100
y 200 datos, considerando varios valores del parametro de dependencia (τ de Kendall)
en 0.3, 0.5 y 0.8. Ademas en la simulacion de los datos se usaron las copulas Clayton,
Frank, Gausiana, Gumbel y Joe.
En total se tienen 60 escenarios de simulacion que estan resumidos en la siguiente
tabla:
12 3 Metodos Graficos para Detectar Dependencia
Copula τ n Copula τ n
Clayton 0.3 20 Clayton 0.3 50
Clayton 0.5 20 Clayton 0.5 50
Clayton 0.8 20 Clayton 0.8 50
Frank 0.3 20 Frank 0.3 50
Frank 0.5 20 Frank 0.5 50
Frank 0.8 20 Frank 0.8 50
Gaussiana 0.3 20 Gaussiana 0.3 50
Gaussiana 0.5 20 Gaussiana 0.5 50
Gaussiana 0.8 20 Gaussiana 0.8 50
Gumbel 0.3 20 Gumbel 0.3 50
Gumbel 0.5 20 Gumbel 0.5 50
Gumbel 0.8 20 Gumbel 0.8 50
Joe 0.3 20 Joe 0.3 50
Joe 0.5 20 Joe 0.5 50
Joe 0.8 20 Joe 0.8 50
Clayton 0.3 100 Clayton 0.3 200
Clayton 0.5 100 Clayton 0.5 200
Clayton 0.8 100 Clayton 0.8 200
Frank 0.3 100 Frank 0.3 200
Frank 0.5 100 Frank 0.5 200
Frank 0.8 100 Frank 0.8 200
Gaussiana 0.3 100 Gaussiana 0.3 200
Gaussiana 0.5 100 Gaussiana 0.5 200
Gaussiana 0.8 100 Gaussiana 0.8 200
Gumbel 0.3 100 Gumbel 0.3 200
Gumbel 0.5 100 Gumbel 0.5 200
Gumbel 0.8 100 Gumbel 0.8 200
Joe 0.3 100 Joe 0.3 200
Joe 0.5 100 Joe 0.5 200
Joe 0.8 100 Joe 0.8 200
Tabla 3-1.: Escenarios de Simulacion
3.3 Graficos para detectar dependencia en R 13
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-1.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 20 usando la copula Clayton con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
14 3 Metodos Graficos para Detectar Dependencia
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-2.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 20 usando la copula Frank con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
3.3 Graficos para detectar dependencia en R 15
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-3.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 20 usando la copula Gausiana con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
16 3 Metodos Graficos para Detectar Dependencia
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-4.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 20 usando la copula Gumbel con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
3.3 Graficos para detectar dependencia en R 17
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-5.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 20 usando la copula Joe con τ = 0.3 (arriba), τ = 0.5 (medio) y τ = 0.8
(abajo)
En este caso, con n = 20, el comportamiento de los graficos para detectar dependencia
es similar en todas las copulas simuladas. Cuando tenemos τ = 0.3, los graficos Chi-
Plot y K-plot proporcionan resultados similares al grafico que tradicionalmente se usa:
el grafico de dispersion. En este caso los tres graficos no logran detectar dependencia
entre las variables. Cuando se empieza a aumentar el parametro de dependencia τ en
0.5 y 0.8, nuevamente los tres graficos se comportan de manera similar, todos logran
detectar dicha dependencia entre las variables para todas las copulas simuladas. En
el caso del grafico Chi-plot con τ = 0.5 y τ = 0.8 la mayorıa de los puntos caen por
fuera de las bandas en todas las copulas simuladas, lo que indica una dependencia
clara entre las variables. En el caso del grafico K-plot, para τ = 0.5 y τ = 0.8 los
puntos se alejan consistentemente de la diagonal, lo que indica dependencia.
18 3 Metodos Graficos para Detectar Dependencia
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-6.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 50 usando la copula Clayton con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
3.3 Graficos para detectar dependencia en R 19
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-7.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 50 usando la copula Frank con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
20 3 Metodos Graficos para Detectar Dependencia
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-8.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 50 usando la copula Gausiana con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
3.3 Graficos para detectar dependencia en R 21
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-9.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 50 usando la copula Gumbel con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
22 3 Metodos Graficos para Detectar Dependencia
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-10.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 50 usando la copula Joe con τ = 0.3 (arriba), τ = 0.5 (medio) y τ = 0.8
(abajo)
3.3 Graficos para detectar dependencia en R 23
En este caso, con n = 50, cuando tenemos τ = 0.3, los graficos Chi-Plot y K-plot
proporcionan resultados un poco diferentes que en el caso anterior con n = 20, en este
caso con las copulas Clayton, Frank, Gumbel y Joe en el grafico Chi-plot alrededor
de la mitad de los puntos quedan por fuera de las bandas y alrededor de la mitad de
los datos quedan dentro de las bandas esto quiza da indicios de una dependencia baja
entre las variables aleatorias. En el grafico K-plot para las copulas Clayton y Gausiana
no se logra detectar dependencia entre las variables pues los puntos se acercan mucho
a la diagonal. En el caso de las copulas Frank, Gumbel y Joe se observa que al inicio,
los puntos estan cerca de la diagonal pero se van alejando consistentemente lo que
serıa un indicio de dependencia baja entre las variables. Con τ = 0.3 el grafico de
dispersion no detecta dependencia entre las variables en ninguno de los casos.
Cuando se empieza a aumentar el parametro de dependencia τ en 0.5 y 0.8, nueva-
mente los tres graficos se comportan de manera similar, todos logran detectar dicha
dependencia entre las variables para todas las copulas simuladas. En el caso del grafi-
co Chi-plot con τ = 0.5 y τ = 0.8 la mayorıa de los puntos caen por fuera de las
bandas en todas las copulas simuladas, lo que indica una dependencia clara entre las
variables. En el caso del grafico K-plot, para τ = 0.5 y τ = 0.8 los puntos se alejan
consistentemente de la diagonal, lo que indica dependencia.
24 3 Metodos Graficos para Detectar Dependencia
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-11.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 100 usando la copula Clayton con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
3.3 Graficos para detectar dependencia en R 25
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-12.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 100 usando la copula Frank con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
26 3 Metodos Graficos para Detectar Dependencia
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-13.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 100 usando la copula Gausiana con τ = 0.3 (arriba), τ = 0.5 (medio)
y τ = 0.8 (abajo)
3.3 Graficos para detectar dependencia en R 27
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-14.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 100 usando la copula Gumbel con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
28 3 Metodos Graficos para Detectar Dependencia
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-15.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 100 usando la copula Joe con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
3.3 Graficos para detectar dependencia en R 29
En este caso, con n = 100, en todas las copulas simuladas el grafico Chi-plot con
τ = 0.3 alrededor de la mitad de los puntos quedan por fuera de las bandas y
alrededor de la mitad de los datos quedan dentro de las bandas esto quiza da indicios
de una dependencia baja entre las variables aleatorias. En el grafico K-plot para la
copula Clayton no se logra detectar dependencia entre las variables pues los puntos
se acercan mucho a la diagonal. En el caso de las copulas Frank, Gumbel, Gausiana y
Joe se observa que al inicio, los puntos estan cerca de la diagonal pero se van alejando
consistentemente lo que serıa un indicio de dependencia baja entre las variables. Con
τ = 0.3 el grafico de dispersion no detecta dependencia entre las variables en ninguno
de los casos.
Cuando se empieza a aumentar el parametro de dependencia τ en 0.5 y 0.8, nueva-
mente los tres graficos se comportan de manera similar, todos logran detectar dicha
dependencia entre las variables para todas las copulas simuladas. En el caso del grafi-
co Chi-plot con τ = 0.5 y τ = 0.8 la mayorıa de los puntos caen por fuera de las
bandas en todas las copulas simuladas, lo que indica una dependencia clara entre las
variables. En el caso del grafico K-plot, para τ = 0.5 y τ = 0.8 los puntos se alejan
consistentemente de la diagonal, lo que indica dependencia.
30 3 Metodos Graficos para Detectar Dependencia
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-16.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 200 usando la copula Clayton con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
3.3 Graficos para detectar dependencia en R 31
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-17.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 200 usando la copula Frank con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
32 3 Metodos Graficos para Detectar Dependencia
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-18.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 200 usando la copula Gausiana con τ = 0.3 (arriba), τ = 0.5 (medio)
y τ = 0.8 (abajo)
3.3 Graficos para detectar dependencia en R 33
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-19.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 200 usando la copula Gumbel con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
34 3 Metodos Graficos para Detectar Dependencia
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
u1
u2
−1.0 −0.5 0.0 0.5 1.0
−1.0
−0.5
0.0
0.5
1.0
λ
χ
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
W1:n
H
Grafica 3-20.: Grafico de dispersion (izquierda), Chi-plot (centro) y K-plot (derecha) para
n = 200 usando la copula Joe con τ = 0.3 (arriba), τ = 0.5 (medio) y
τ = 0.8 (abajo)
3.3 Graficos para detectar dependencia en R 35
En este caso, con n = 200, en la copula Joe el grafico Chi-plot con τ = 0.3 alrededor
de la mitad de los puntos quedan por fuera de las bandas y alrededor de la mitad de
los datos quedan dentro de las bandas esto quiza da indicios de una dependencia baja
entre las variables aleatorias, con las copulas Clayton, Frank, Gumbel y Gausiana el
grafico Chi-plot logra detectar la dependencia entre las variables pues la mayorıa de
los puntos caen por fuera de las bandas. En el grafico K-plot con todas las copulas
simuladas se observa que al inicio, los puntos estan cerca de la diagonal pero se
van alejando consistentemente lo que serıa un indicio de dependencia baja entre las
variables. Con τ = 0.3 el grafico de dispersion no detecta dependencia entre las
variables en ninguno de los casos, lo que convierte a los graficos Chi-Plot y K-plot
en una buena alternativa para detectar dependencia cuando n es grande pues logra
detectarla aun cuando es baja.
Cuando se empieza a aumentar el parametro de dependencia τ en 0.5 y 0.8, nueva-
mente los tres graficos se comportan de manera similar, todos logran detectar dicha
dependencia entre las variables para todas las copulas simuladas. En el caso del grafi-
co Chi-plot con τ = 0.5 y τ = 0.8 la mayorıa de los puntos caen por fuera de las
bandas en todas las copulas simuladas, lo que indica una dependencia clara entre las
variables. En el caso del grafico K-plot, para τ = 0.5 y τ = 0.8 los puntos se alejan
consistentemente de la diagonal, lo que indica dependencia.
4. Metodos Graficos Para Seleccionar
una Copula Arquimediana
En este capıtulo ilustraremos tres metodos graficos que pueden resultar utiles al momento
de elegir un modelo copula entre una familia de copulas cuando tenemos datos bivariados.
El supuesto en el que se basa este capıtulo, es que los datos pueden ser modelados con una
copula arquimediana. Sea (X1, Y1) , . . . , (Xn, Yn) una muestra aleatoria de n observaciones
bivariadas, que han sido generadas de una distribucion bivariada H (x, y), con margina-
les continuas F (x) y G (x) y una copula arquimediana C (x, y) (De Matteis, 2001). Una
funcion bivariada perteneciente a la familia de copulas arquimedianas, tiene la siguiente
representacion (Lopera et al., 2012):
Cα = φ−1α [φα (u) + φα (v)] , 0 ≤ u, v ≤ 1.
En la Tabla 2-1, se muestra la forma del generador φ, para cuatro de las familias copulas
arquimedianas mas comunes en la literatura. De esta manera, el proposito fundamental
de este capıtulo es identificar la forma del generador φ, que depende del parametro de
dependencia α cuando se tienen datos bivariados. De esta manera si suponemos que los
datos se pueden modelar usando un miembro de la familia arquimediana, un primer paso
para identificar el modelo, es estimando el parametro de dependencia α (en este caso solo
trabajamos con modelos copula de un parametro).
4.1. Estimacion del Parametro de Dependencia α
En la literatura se pueden encontrar varios metodos para estimar el parametro de depen-
dencia α, sin embargo, en este trabajo, nos concentramos en dos metodos en particular:
uno parametrico y uno no parametrico. Dichos metodos se exponen a continuacion.
4.1.1. Estimacion no Parametrica: Metodo de Genest y Rivest
Esta solucion para estimar el parametro α fue propuesta por Genest (1993) y tambien se
describe en el trabajo de Frees (1998). Este metodo se basa en la relacion que tiene el τ de
Kendall con las copulas y tiene la ventaja de que no se necesita conocer las distribuciones
marginales para estimar el parametro α (De Matteis, 2001). Este metodo se basa en el
38 4 Metodos Graficos Para Seleccionar una Copula Arquimediana
hecho de que el τ de Kendall puede escribirse convenientemente en terminos de φ usando
la siguiente identidad (Genest, 1986):
τ = 1 + 4
∫ 1
0
φ (t)
φ′ (t)dt (4-1)
Note que como φ depende del parametro de dependencia α, entonces al resolver la ecuacion
(4-1) para α, se obtiene como resultado un estimador del parametro de interes α (De Mat-
teis, 2001). En la tabla (2.4), se muestran las expresiones del τ de Kendall para las copulas
arquimedianas mas comunes.
4.1.2. Estimacion Parametrica Usando Maxima Verosimilitud
Sea (X1, Y1), . . . , (Xn, Yn) una muestra aleatoria de n observaciones bivariadas, que han
sido generadas de una distribucion bivariada H(x, y), con marginales continuas F (x) y
G(x) y una copula arquimediana C(x, y). En primer lugar necesitamos conocer las distri-
buciones marginales, en este caso usamos una distribucion empırica como aproximacion no
parametrica de las funciones marginales. Suponga que X1, . . . , Xn son observaciones inde-
pendientes, la funcion de distribucion empırica esta definida para todo x (−∞ < x < ∞)
como (De Matteis, 2001):
Fn(x : X1, . . . , Xn) :=#i : 1 ≤ i ≤ n,Xi ≤ x
n(4-2)
Un inconveniente que se presenta al trabajar con la ecuacion 4-2, es que la distribucion
emprırica es discreta y para el desarrollo de la funcion de verosimilitud se necesitan distribu-
ciones marginales continuas. Para evitar este inconveniente usaremos la siguiente definicion:
Definicion (De Matteis, 2001): Sea a ≤ mın(X1, . . . , Xn) ≤ max(X1, . . . , Xn) ≤ b.
Sea Z1, . . . , Zn denotan los valores de X1, . . . , Xn ordenados en forma creciente. Defina
Z0 ≡ a y Zn+1 ≡ b. Entonces la funcion de distribucion empırica continua, es la funcion de
distribucion Gn (x : a, Z1, . . . , Zn, b), la cual es 0 si x ≤ a, 1 si x ≥ b y en el medio tiene el
valor de los segmentos de lınea recta que unen los puntos medios de los intervalos [Zi, Zi+1]
que contituyen la funcion de distribucion empırica. El punto medio del intervalo mas a la
izquierda [Z1, Z2] esta unido al punto (a, 0) con una lınea recta, mientras que el intervalo
mas a la derecha esta unido al punto (b, 1) (De Matteis, 2001).
Aplicando la definicion anterior obtenemos las distribuciones marginales empıricas Fn(x)
y Gn(y) con funciones de densidad fn(x) y gn(y), ası H(x, y) = C (F (x), G(y)).
Definimos Ui := Fn(xi) y Vi := Gn(yi), note que Ui y Vi estan distribuidas como una uni-
forme estandar aproximadamente. Ahora, para definir la funcion de verosimilitud, primero
definimos:
h(x, y) = f(x)g(y)C12 (F (x), G(y)) (4-3)
4.2 Pruebas Graficas de Bondad de Ajuste Para Copulas Arquimedianas 39
donde
C12 =∂
∂u
∂
∂vC(u, v). (4-4)
Ası obtenemos una expresion para la funcion de verosimilitud a partir de la ecuacion (4-3):
L(α;U, V ) =n∏i=1
C12 (Ui, Vi) (4-5)
de esta manera, un estimador para el parametro α se obtiene maximizando la funcion de
verosimilitud para el conjunto de datos dado. Ası un estimador para α es:
α = argmaxα∈R
n∑i=1
logL(α;Ui, Vi), (4-6)
donde R hace referencia al conjunto de los posibles valores para α dados en la tabla (2.4).
4.2. Pruebas Graficas de Bondad de Ajuste Para
Copulas Arquimedianas
Una vez se estima el parametro de dependencia α de las familias copula, el siguiente paso
es identificar cual de ellas presenta un mejor ajuste para los datos. A continuacion se
presentan tres metodos graficos que pueden proporcionar una ayuda visual para identificar
la copula que presenta un mejor ajuste, sin embargo, en muchas ocasiones identificar la
copula adecuada no es una tarea sencilla.
4.2.1. Aproximacion Usando la Funcion de Distribucion Condicional
de Y |X (Metodo grafico I):
Sea (X1, Y1), . . . , (Xn, Yn) una muestra aleatoria de n observaciones bivariadas, que han
sido generadas de una distribucion bivariada H(x, y), con marginales continuas F (x) y
G(x) y una copula arquimediana C(x, y). Como vimos en la ecuacion 4-3, la funcion de
distribucion conjunta puede expresarse como:
h(x, y) = f(x)g(y)C12 (F (x), G(y)) (4-7)
donde f(x) y g(y) son las funciones de densidad marginales correspondientes y C12 esta
dado en la ecuacion 4-4, quien resulta ser la funcion de densidad de la copula. Ası, una
expresion para la funcion de distribucion condicional para Y |X es (De Matteis, 2001):
HY |X(x, y) := C1 (F (x), G(y)) (4-8)
40 4 Metodos Graficos Para Seleccionar una Copula Arquimediana
donde
C1(u, v) =∂
∂uC(u, v) (4-9)
HY |X(x, y) tiene una distribucion uniforme estandar (De Matteis, 2001), de esta manera
para verificar el ajuste de la copula a los datos, se realiza un grafico QQ-Plot de HY |X(x, y)
usando los datos observados x e y contra los cuantiles de la distribucion uniforme estandar.
Si la copula es un modelo adecuado para los datos observados, el grafico debe dar como
resultado una lınea recta.
4.2.2. Aproximacion Usando La Funcion de Distribucion de la
Copula (Metodo grafico II):
En este caso, suponga que se tiene nuevamente una muestra aleatoria de observaciones
bivariadas que se supone que son dependientes (X1, Y1), . . . , (Xn, Yn), las cuales han sido
generadas de una distribucion bivariada H(x, y), con marginales continuas F (x) y G(x) y
una copula arquimediana C(x, y), que a su vez esta determinada por un generador φα. Una
forma de identificar la funcion generadora φ de la copula, es usando el metodo expuesto
en Genest (1993), donde se definen las variables aleatorias ti = F (Xi, Yi), que tienen la
funcion de distribucion acumulada K(t). Ellos demostraron que:
KC(t) = P (C(U, V ) ≤ t) = t− φ(t)
φ′(t)(4-10)
Ası, la funcion K(t) es la funcion de distribucion univariada de la copula y como conse-
cuencia tiene una distribucion uniforme estandar. De esta manera, usando el estimador de
α, α, un QQ-Plot de KC contra los cuantiles de la distribucion uniforme estandar deberıa
dar como resultado una lınea recta si la copula ajusta bien a los datos (De Matteis, 2001).
4.2.3. Aproximacion Usando Una Estimacion No Parametrica de la
Funcion de Distribucion de la Copula (Metodo grafico III):
Genest (1993) exponen una idea para realizar esta aproximacion, que consiste en deter-
minar dos estimaciones para la funcion de distribucion K, una parametrica cuya forma
es la dada en la ecuacion 4-10 y que en este caso necesita la estimacion del parametro
de dependencia α, α que llamaremos Kφ(t) y una no parametrica que no depende de las
funciones marginales ni del parametro de la copula arquimediana, que denotaremos como
Kn(t). En este caso se utilizan varias opciones para la funcion, usando α y se calcula la
funcion Kφ(t) asociada a cada copula y luego se compara con la estimacon empırica Kn
siguiendo el siguiente algoritmo:
Determinar la funcion de distribucion no parametrica para K.
4.3 Aproximacion Teorica de los Metodos Graficos de Bondad de Ajuste 41
Definamos la variable W := H(X, Y ), donde H es la estimacion empırica de la
distribucion bivariada H dada por:
Wi = H (Xi, Yi) =#(Xj, Yj) : Xj < Xi, Yj < Yi
n− 1(4-11)
Ahora, tenemos que encontrar una estimacion emprırica para la distribucion de W .
De la ecuacion anterior, un estimador no parametrico de K(w) esta dado por:
Kn(w) =#i : 1 ≤ i ≤ n,Wi ≤ w
n(4-12)
Determinar la funcion de distribucion parametrica.
Como vimos en la ecuacion 4-10, cada copula arquimediana tiene su generador es-
pecıfico φ, el cual se puede determinar a traves de α, de esta manera, un estimador
parametrico para K tiene la forma:
Kφ(w) = w − φ(w)
φ′(w)(4-13)
Ası Kn es una herramienta util para ayudar a identificar una familia parametrica de
copulas arquimedianas.
Comparar las distribuciones parametricas y no parametricas.
La idea entonces es que la funcion φ es adecuada (α adecuado), si la funcion de
distribucion Kφ(w) es similar a la funcion de distribucion no parametrica Kn(w)
(De Matteis, 2001). Ası, se construye el grafico QQ-Plot para cada Kφ contra Kn(w),
donde se comparan los cuantiles empıricos con aquellos asociados a un modelo copu-
la parametrico, si la seleccion de la copula es adecuada, el grafico debe dar como
resultado una lınea recta.
4.3. Aproximacion Teorica de los Metodos Graficos de
Bondad de Ajuste
Los metodos graficos expuestos en la seccion anterior son una herramienta util al momento
de identificar un modelo adecuado para los datos, sin embargo, en muchas ocasiones los
resultados de dichos graficos pueden resultar ser confusos y no es obvio cual copula ajusta
mejor, ademas la interpretacion y subjetividad del investigador pueden afectar las con-
clusiones del estudio. En esta seccion se usa la informacion obtenida anteriormente para
realizar una prueba de bondad de ajuste clasica, en este caso usaremos la prueba de bondad
de ajuste de Kolmogorov-Smirnov (De Matteis, 2001).
42 4 Metodos Graficos Para Seleccionar una Copula Arquimediana
4.3.1. Prueba de Kolmogorov-Smirnov
La prueba de bondad de ajuste de Kolmogorov-Smirnov, tiene la ventaja de que es una
prueba no parametrica, ademas de esto, cuando se trabaja con muestras pequenas, la
prueba logra detectar diferencias entre una distribucion empırica y una distribucion teorica.
El estadıstico de prueba en este caso maximiza la diferencia entre la funcion de distribucion
acumulada empırica y la teorica, este estadıstico esta dado por (De Matteis, 2001):
T = maxx|F (x)− F (x)| (4-14)
Usaremos la prueba de Kolmogorov-Smirnov para los metodos graficos expuestos anterior-
mente, en el caso de los metodos graficos I y II, se verificara si los datos se distribuyen de
forma uniforme o no. Ası la hipotesis nula consiste en asumir que la muestra proviene de
una distribucion U(0, 1). En el caso del metodo grafico III se verificara si las distribuciones
son identicas o no, ası en la hipotesis nula se asume que la distribucion empırica y teorica
son identicas (De Matteis, 2001).
5. Simulacion de los Metodos Graficos
de Bondad de Ajuste
En este capıtulo se presenta un estudio de simulacion de los metodos graficos de bondad
de ajuste expuestos en el capıtulo anterior para evaluar su desempeno, simulando 300
observaciones de las copulas Frank, Gumbel y Clayton, para diferentes valores de τ y luego
verificar si los metodos logran seleccionar la copula adecuada.
El proceso de simulacion se realizo de la siguiente manera:
1. Inicialmente se simularon los datos de las copulas Frank, Gumbel y Clayton para va-
lores de τ de 0.2, 0.5 y 0.8. Posteriormente se calcula el verdadero valor del parametro
de la copula, α para los datos simulados.
2. Para los datos simulados se realiza la estimacion del parametro de la copula α usando
el metodo de Genest y Rivest (no parametrico) y el metodo de maxima verosimilitud
(parametrico) expuestos en el capıtulo 4. Dichas estimaciones se realizan para cada
una de las copulas expuestas en la siguiente tabla:
44 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Familia Cα(u, v) Espacio de α
1 max(
[u−α + v−α − 1]− 1α , 0
)[−1,∞) \ 0
2 max(
1− [(1− u)α + (1− v)α]1α , 0
)[1,∞)
3 uv1−α(1−u)(1−v)
[−1, 1)
4 exp(−[(− lnu)α + (− ln v)α]1α ) [1,∞)
5 − 1α
ln(
1 + (e−αu−1)(e−αv−1)e−α−1
)(−∞,∞) \ 0
6 1− [(1− u)α + (1− v)α − (1− u)α(1− v)α]1α [1,∞)
7 max(αuv + (1− α)(u+ v − 1), 0) (0, 1]
8 max[
α2uv−(1−u)(1−v)α2−(α−1)2(1−u)(1−v)
, 0]
[1,∞)
9 uv exp(−α lnu ln v) (0, 1]
10 uv
[1+(1−uα)(1−vα)]1α
(0, 1]
11 max(
[uαvα − 2(1− u)α(1− v)α]1α , 0)
(0, 12]
12(
1 + [(u−1 − 1)α + (v−1 − 1)α]1α
)−1
[1,∞)
13 exp(1− [(1− lnu)α + (1− ln v)α − 1]1α ) (0,∞)
14 (1 + [(u−1α − 1)α + (v−
1α − 1)α]
1α )−α [1,∞)
15 max(1− [(1− u 1α )α + (1− v 1
α )α]1αα, 0) [1,∞)
16 12(S +
√S2 + 4α), S = u+ v − 1− α( 1
u+ 1
v− 1) [0,∞)
17(
1 + [(1+u)−α−1][(1+v)−α−1]2−α−1
)− 1α − 1 (−∞,∞) \ 0
18 max(1 + α/ ln[eα
(u−1) + eα
(v−1) ], 0) [2,∞)
19 α/ ln(eαu + e
αv − eα) (0,∞)
20 [ln(exp(u−α) + exp(v−α)− e)]− 1α (0,∞)
Tabla 5-1.: Familias de Copulas de un Parametro
En la tabla anterior, la familia 1 corresponde a la copula Clayton, la familia 4 a la
copula Gumbel y la 5 a la copula Frank. Cabe resaltar que al momento de aplicar
los metodos de estimacion del parametro de dependencia α, en algunos casos, la
estimacion no puede hacerse por el metodo de Genest y Rivest, pues la expresion
para τ no tiene forma cerrada (ver tabla 2-1) en las copulas 3, 6, 7, 9, 10, 11, 13, 16,
17, 19 y 20. Similarmente, para el metodo de maxima verosimilitud, la estimacion
del parametro de dependencia no puede hacerse para las copulas 2, 7, 8, 11, 15 y 18
porque las derivadas y segundas derivadas de sus funciones no tienen forma cerrada
(ver tablas A-1, A-2 y A-3 del anexo A).
3. Se seleccionan las copulas para las cuales la estimacion del parametro de dependencia
es valido, es decir, cuyos valores estan en el espacio parametral de la copula dados
en la tabla A.
5.1 Simulacion Copula Clayton 45
4. Con las copulas seleccionadas en el punto anterior, se aplican los metodos graficos
I, II y III, de donde se selecciona un nuevo conjunto de copulas, teniendo en cuenta
aquellas que mejor se ajusten a los datos.
5. Finalmente, con el conjunto de copulas obtenido en el punto anterior, se verifica el
ajuste realizando la prueba de Kolmogorov-Smirnov.
5.1. Simulacion Copula Clayton
En esta seccion, se presenta la simulacion de los datos usando la copula Clayton para
valores de τ de 0.2, 0.5 y 0.8.
5.1.1. Copula Clayton Usando τ = 0.2
Para esta familia copula, se tiene que con τ = 0.2, el verdadero valor del parametro es
α = 0.5
1. En primer lugar se realiza la estimacion del parametro de dependencia usando Genest
y Rivest y el metodo de maxima verosimilitud (EMV), los resultados se muestran en
la siguiente tabla:
46 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Familia Genest y Rivest α1 Valido EMV α2 Valido
1 (Clayton) 0.5390625 Si 0.5144665 Si
2 2.539062 Si • −3 • − 0.8120781 Si
4 (Gumbel) 1.269531 Si 0.86 No
5 (Frank) 0.5390625 Si 2.008 Si
6 • − 0.86 No
7 • − • −8 11.01695 Si • −9 • − -0.3193376 No
10 • − -0.8914176 No
11 • − • −12 0.8577166 No 0.8714154 No
13 • − 2.045374 Si
14 0.7865749 No 0.8723847 No
15 1.77 Si • −16 • − 1.181083 Si
17 • − 2.436199 Si
18 1.715433 No • −19 • − 0.86 Si
20 • − 0.209943 Si
Tabla 5-2.: Estimacion de α para la copula Clayton, τ = 0.2
2. Por los resultados dados en la tabla anterior, se escogen entonces por el metodo de
Genest y Rivest las copulas 1, 2, 4, 5, 8 y 15. Por el metodo de maxima verosimilitud
se escogen las copulas 1, 3, 5, 13, 16, 17, 19 y 20.
3. A continuacion se aplican los metodos graficos I, II y III para cada una de las copulas
resultantes del proceso anterior usando el metodo de estimacion de Genest y Rivest
y el de maxima verosimilitud.
5.1 Simulacion Copula Clayton 47
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 1
C1[F(x),G(y)]
U(0
,1)
a=0.539
0.0 0.2 0.4 0.6 0.8 1.0 1.2
0.0
0.2
0.4
0.6
0.8
1.0
Family 4
C1[F(x),G(y)]
U(0
,1)
a=1.27
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 5
C1[F(x),G(y)]
U(0
,1)
a=0.539
Grafica 5-1.: Metodo grafico I aplicado las copulas resultantes por Genest y Rivest
En la grafica 5-1 se muestra el resultado del metodo grafico I aplicado a las copulas
seleccionadas por el metodo de Genest y Rivest, en este caso, el metodo no arrojo
un resultado para las copulas 2, 8 y 15 pues sus primeras derivadas no tienen forma
cerrada y el metodo grafico I hace uso de dichas derivadas. A continuacion se muestra
el resultado para las copulas seleccionadas por el metodo de maxima verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 1
C1[F(x),G(y)]
U(0
,1)
a=0.514
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 3
C1[F(x),G(y)]
U(0
,1)
a=0.812
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 5
C1[F(x),G(y)]
U(0
,1)
a=2.008
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 13
C1[F(x),G(y)]
U(0
,1)
a=2.045
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 16
C1[F(x),G(y)]
U(0
,1)
a=1.181
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 17
C1[F(x),G(y)]
U(0
,1)
a=2.436
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 19
C1[F(x),G(y)]
U(0
,1)
a=0.86
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 20
C1[F(x),G(y)]
U(0
,1)
a=0.21
Grafica 5-2.: Metodo grafico I aplicado las copulas resultantes por maxima Verosimilitud
48 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
De manera similar, se muestra a continuacion el resultado luego de aplicar el metodo
grafico II para las copulas resultantes del metodo de Genest y Rivest y maxima
verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.4 0.5 0.6 0.7 0.8 0.9
0.0
0.2
0.4
0.6
0.8
1.0
Family 2
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 4
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 8
Kc[C(F(x),G(y))]
U(0
,1)
0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 15
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-3.: Metodo grafico II aplicado las copulas resultantes por Genest y Rivest
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 3
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 13
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 16
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 19
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 20
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-4.: Metodo grafico II aplicado las copulas resultantes por maxima verosimilitud
Se realiza el mismo procedimiento con el metodo grafico III, los resultados se muestran
a continuacion:
5.1 Simulacion Copula Clayton 49
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 1
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.539
0.4 0.5 0.6 0.7 0.8 0.9
0.0
0.2
0.4
0.6
0.8
1.0
Family 2
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=2.539
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 4
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=1.27
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 5
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.539
0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 8
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=11.017
0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 15
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=1.77
Grafica 5-5.: Metodo grafico III aplicado las copulas resultantes por Genest y Rivest
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 1
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.514
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 3
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.812
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 5
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=2.008
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 13
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=2.045
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 16
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=1.181
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 19
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.86
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
Family 20
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.21
Grafica 5-6.: Metodo grafico III aplicado las copulas resultantes por maxima verosimilitud
4. Finalmente, se seleccionan las copulas que mejor se ajustan en cada metodo y se
aplica la prueba de Kolmogorov-Smirnov en cada caso. Los resultados se muestran
en las siguientes tablas:
50 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Valores P para el metodo grafico I: Luego de aplicar el metodo grafico I, se
seleccionan entonces, por el metodo de Genest y Rivest, a las copulas 1 y 5. Por el
metodo de maxima verosimilitud se decide calcular el valor-p para las copulas 1, 3,
5, 13, 16, 17 y 20. Los resultados se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.9828731 0.9842223
3 • 0.9866634
5 (Frank) 0.9999773 0.9993871
13 • 0.9985338
16 • 0.6795574
17 • 0.9967550
20 • 0.9523685
Tabla 5-3.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Clayton
con τ = 0.2
Valores P para el metodo grafico II: En este caso, se seleccionan, por el metodo
de Genest y Rivest, a las copulas 1, 4, 5, y 8. Por el metodo de maxima verosimilitud
se decide calcular el valor-p para las copulas 1, 3, 5, 13, 16 y 20. Los resultados se
muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.79725614 0.7583242
3 • 0.8533583
4 (Gumbel) 0.87510661 •5 (Frank) 0.31123562 0.8937548
8 0.01426018 •13 • 0.9526732
16 • 0.3428993
20 • 0.6241018
Tabla 5-4.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Clayton
con τ = 0.2
Valores P para el metodo grafico III: En este caso, se seleccionan, por el metodo
de Genest y Rivest, las copulas 1, 4, 5 y 8. Por el metodo de maxima verosimilitud
se decide calcular el valor-p para las copulas 1, 3, 5, 13, 16 y 20. Los resultados se
muestran a continuacion:
5.1 Simulacion Copula Clayton 51
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.9700409 0.9700409
3 • 0.9876983
4 (Gumbel) 0.9876983 •5 (Frank) 0.7211625 0.9962552
8 0.1759535 •13 • 0.9876983
16 • 0.7870443
20 • 0.9408423
Tabla 5-5.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Clayton
con τ = 0.2
Cuando los datos son generados con la copula Clayton con τ = 0.2, se obtiene como resul-
tado con el metodo grafico I que las copulas 1 (Clayton) y 5 (Frank) son seleccionadas, pues
tienen valores P altos, de 0.9828 y 0.9999 respectivamente, cuando se estima el parametro
de dependecia con el metodo de Genest y Rivest, lo que se aprecia tambien de forma grafica.
Cuando se estima el parametro por maxima verosimilitud, el metodo grafico I selecciona a
las copulas 1 (Clayton), 3, 5 (Frank), 13 y 17 pues son las que presentan los valores p mas
altos.
Usando el metodo grafico II, se escogen las copulas 1 (Clayton) y 4 cuando se estiman el
parametro de dependencia por el metodo de Genest y Rivest, pues son los modelos que
presentan los valores P mas altos. Cuando se estima el parametro de dependencia por
maxima verosimilitud, se escogen las copulas 1 (Clayton), 3, 5 (Frank) y 13, pues son las
que presentan los valores P mas altos y el mejor ajuste en las graficas presentadas.
Usando el metodo grafico III, se escogen las copulas 1 (Clayton) y 4, cuando se estiman
el parametro de dependencia por el metodo de Genest y Rivest, pues son los modelos que
presentan los valores P mas altos. Cuando se estima el parametro de dependencia por
maxima verosimilitud, se escogen las copulas 1 (Clayton), 3, 5 (Frank), 13 y 20, pues son
las que presentan los valores P mas altos y el mejor ajuste en las graficas presentadas.
5.1.2. Copula Clayton Usando τ = 0.5
Para esta familia copula, se tiene que con τ = 0.5, el verdadero valor del parametro es
α = 2
1. En primer lugar se realiza la estimacion del parametro de dependencia usando Genest
y Rivest y el metodo de maxima verosimilitud (EMV), los resultados se muestran en
la siguiente tabla:
52 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Familia Genest y Rivest α1 Valido EMV α2 Valido
1 (Clayton) 2.209687 Si 2.109803 Si
2 4.209687 Si • −3 • − 1.00718 No
4 (Gumbel) 2.104843 Si 0.86 No
5 (Frank) 2.209687 Si 6.123238 Si
6 • − 0.86 No
7 • − • −8 -6.959963 No • −9 • − -64.24 No
10 • − -0.7365175 No
11 • − • −12 1.403229 Si 0.86 No
13 • − 5.046366 Si
14 1.604843 Si 0.86 No
15 2.604843 Si • −16 • − 98992.73 Si
17 • − 8.983284 Si
18 2.806458 Si • −19 • − 0.01112971 Si
20 • − 0.4693355 Si
Tabla 5-6.: Estimacion de α para la copula Clayton, τ = 0.5
2. Por los resultados dados en la tabla anterior, se escogen entonces por el metodo de
Genest y Rivest las copulas 1, 2, 4, 5, 12, 14, 15 y 18. Por el metodo de maxima
verosimilitud se escogen las copulas 1, 5, 13, 16, 17, 19 y 20.
3. A continuacion se aplican los metodos graficos I, II y III para cada una de las copulas
resultantes del proceso anterior usando la estimacion de Genest y Rivest y el de
maxima verosimilitud para el parametro de dependencia.
5.1 Simulacion Copula Clayton 53
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=2.21
0.0 0.5 1.0 1.5
0.0
0.4
0.8
Family 4
C1[F(x),G(y)]
U(0
,1)
a=2.105
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=2.21
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
C1[F(x),G(y)]
U(0
,1)
a=1.403
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
C1[F(x),G(y)]
U(0
,1)
a=1.605
Grafica 5-7.: Metodo grafico I aplicado las copulas resultantes por Genest y Rivest
En la grafica 5-7 se muestra el resultado del metodo grafico I aplicado a las copulas
seleccionadas por el metodo de Genest y Rivest, en este caso, el metodo no arrojo
un resultado para las copulas 2, 15 y 18 pues sus primeras derivadas no tienen forma
cerrada y el metodo grafico I hace uso de dichas derivadas. A continuacion se muestra
el resultado para las copulas seleccionadas por el metodo de maxima verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=2.11
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=6.123
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
C1[F(x),G(y)]
U(0
,1)
a=5.046
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
C1[F(x),G(y)]
U(0
,1)
a=98992.73
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 17
C1[F(x),G(y)]
U(0
,1)
a=8.983
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
C1[F(x),G(y)]
U(0
,1)
a=0.011
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
C1[F(x),G(y)]
U(0
,1)
a=0.469
Grafica 5-8.: Metodo grafico I aplicado las copulas resultantes por maxima Verosimilitud
54 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
De manera similar, se muestra a continuacion el resultado luego de aplicar el metodo
grafico II para las copulas resultantes del metodo de Genest y Rivest y maxima
verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 15
Kc[C(F(x),G(y))]
U(0
,1)
0.4 0.5 0.6 0.7 0.8 0.9 1.0
0.0
0.4
0.8
Family 18
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-9.: Metodo grafico II aplicado las copulas resultantes por Genest y Rivest
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-10.: Metodo grafico II aplicado las copulas resultantes por maxima
Verosimilitud
Se realiza el mismo procedimiento con el metodo grafico III, los resultados se muestran
a continuacion:
5.1 Simulacion Copula Clayton 55
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=2.21
0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=4.21
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=2.105
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=2.21
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.403
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.605
0.4 0.5 0.6 0.7 0.8 0.9 1.0
0.0
0.4
0.8
Family 18
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=2.806
Grafica 5-11.: Metodo grafico III aplicado las copulas resultantes por Genest y Rivest
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=2.11
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=6.123
0.0 0.2 0.4 0.6 0.8 1.00
.00
.40
.8
Family 13
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=5.046
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=98992.73
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.011
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.469
Grafica 5-12.: Metodo grafico III aplicado las copulas resultantes por maxima
verosimilitud
4. Finalmente, se seleccionan las copulas que mejor se ajustan en cada metodo y se
aplica la prueba de Kolmogorov-Smirnov en cada caso. Los resultados se muestran
en las siguientes tablas:
56 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Valores P para el metodo grafico I: Luego de aplicar el metodo grafico I, se
seleccionan entonces, por el metodo de Genest y Rivest, a las copulas 1, 5, 12 y 14,
y por el metodo de maxima verosimilitud se decide calcular el valor-p para todas las
copulas dadas en la grafica 4-8. Los resultados se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.9384321 0.95748243
5 (Frank) 0.4785176 0.66133897
12 0.8226679 •13 • 0.82686325
14 0.5939843 •16 • 0.04679935
17 • 0.75089486
19 • 0.08291933
20 • 0.38621745
Tabla 5-7.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Clayton
con τ = 0.5
Valores P para el metodo grafico II: En este caso, se seleccionan, por el metodo
de Genest y Rivest, a las copulas 1, 4, 5, 12, 14 y 15. Por el metodo de maxima
verosimilitud se decide calcular el valor-p para todas las copulas dadas en la grafica
4-10. Los resultados se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.96707685 0.9589229
4 (Gumbel) 0.68286802 •5 (Frank) 0.11796064 0.7818083
12 0.99987278 •13 • 0.8232035
14 0.99292108 •15 0.06178138 •16 • 0.5696714
19 • 0.5935414
20 • 0.5733158
Tabla 5-8.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Clayton
con τ = 0.5
Valores P para el metodo grafico III: En este caso, se seleccionan, por el metodo
de Genest y Rivest, las copulas 1, 4, 5, 12 y 14. Por el metodo de maxima verosimilitud
5.1 Simulacion Copula Clayton 57
se decide calcular el valor-p para todas las copulas dadas en la grafica 4-12. Los
resultados se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.9992670 0.9992670
4 (Gumbel) 0.8995694 •5 (Frank) 0.4542658 0.9408423
12 0.9999976 •13 • 0.9876983
14 0.9999272 •16 • 0.8995694
19 • 0.9408423
20 • 0.8995694
Tabla 5-9.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Clayton
con τ = 0.5
Cuando los datos son generados con la copula Clayton con τ = 0.5, se obtiene como
resultado con el metodo grafico I que las copulas 1 (Clayton), y 12 son seleccionadas, pues
tienen valores P altos, de 0.9384 y 0.8226 respectivamente, cuando se estima el parametro
de dependecia con el metodo de Genest y Rivest, lo que se aprecia tambien de forma grafica.
Cuando se estima el parametro por maxima versosimilitud, el metodo grafico I selecciona
a las copulas 1 (Clayton), 13 y 17 pues son las que presentan los valores p mas altos. En
ambos casos la copula Clayton es la que presenta el mejor ajuste, pues sus valores p son
los mas altos.
Usando el metodo grafico II, se escogen las copulas 1 (Clayton), 12 y 14 cuando se estiman
el parametro de dependencia por el metodo de Genest y Rivest, pues son los modelos que
presentan los valores P mas altos y que presentan un buen ajuste graficamente. Cuando
se estima el parametro de dependencia por maxima verosimilitud, se escogen las copulas 1
(Clayton), 5 (Frank) y 13, como posibles candidatas para representar los datos pues son las
que presentan el mejor ajuste en las graficas presentadas, en particular la copula Clayton
es la que tiene el valor P mas alto por lo que es la candidata mas idonea en este caso.
Usando el metodo grafico III, se escogen las copulas 1 (Clayton), 4, 12 y 14 cuando se
estiman el parametro de dependencia por el metodo de Genest y Rivest, pues son los
modelos que presentan los valores P mas altos, en particular, se escogen como posibles
candidatos a los modelos 1, 12 y 14. Cuando se estima el parametro de dependencia por
maxima verosimilitud, se escogen las copulas 1 (Clayton) y 13, pues son las que presentan
los valores P mas altos y el mejor ajuste en las graficas presentadas, en particular, el mejor
candidato en este caso es la copula Clayton pues es la que presenta el valor P mas alto:
0.9992.
58 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
5.1.3. Copula Clayton Usando τ = 0.8
Para esta familia copula, se tiene que con τ = 0.8, el verdadero valor del parametro es
α = 8
1. En primer lugar se realiza la estimacion del parametro de dependencia usando Genest
y Rivest y el metodo de maxima verosimilitud (EMV), los resultados se muestran en
la siguiente tabla:
5.1 Simulacion Copula Clayton 59
Familia Genest y Rivest α1 Valido EMV α2 Valido
1 (Clayton) 8.147059 Si 7.445955 Si
2 10.14706 Si • −3 • − 1.004445 No
4 (Gumbel) 5.073529 Si 0.86 No
5 (Frank) 8.147059 Si 18.07428 Si
6 • − 0.86 No
7 • − • −8 -2.839506 No • −9 • − -28.84465 No
10 • − -0.6954385 No
11 • − • −12 3.382353 Si 0.86 No
13 • − 14.90184 Si
14 4.573529 Si 0.86 No
15 5.573529 Si • −16 • − 106370.3 Si
17 • − 28.57609 Si
18 6.764706 Si • −19 • − 0.86 Si
20 • − 0.7224271 Si
Tabla 5-10.: Estimacion de α para la copula Clayton, τ = 0.8
2. Por los resultados dados en la tabla anterior, se escogen entonces por el metodo de
Genest y Rivest las copulas 1, 2, 4, 5, 12, 14, 15 y 18. Por el metodo de maxima
verosimilitud se escogen las copulas 1, 5, 13, 16, 17, 19 y 20.
3. A continuacion se aplican los metodos graficos I, II y III para cada una de las copulas
resultantes del proceso anterior usando la estimacion de Genest y Rivest y el de
maxima verosimilitud para el parametro de dependencia.
60 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=8.147
0.0 0.5 1.0 1.5 2.0
0.0
0.4
0.8
Family 4
C1[F(x),G(y)]
U(0
,1)
a=5.074
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=8.147
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
C1[F(x),G(y)]
U(0
,1)
a=3.382
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
C1[F(x),G(y)]
U(0
,1)
a=4.574
Grafica 5-13.: Metodo grafico I aplicado las copulas resultantes por Genest y Rivest
En la grafica 5-13 se muestra el resultado del metodo grafico I aplicado a las copulas
seleccionadas por el metodo de Genest y Rivest, en este caso, el metodo no arrojo
un resultado para las copulas 2, 15 y 18 pues sus primeras derivadas no tienen forma
cerrada y el metodo grafico I hace uso de dichas derivadas. A continuacion se muestra
el resultado para las copulas seleccionadas por el metodo de maxima verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=7.446
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=18.074
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
C1[F(x),G(y)]
U(0
,1)
a=14.902
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
C1[F(x),G(y)]
U(0
,1)
a=106370.3
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 17
C1[F(x),G(y)]
U(0
,1)
a=28.576
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
C1[F(x),G(y)]
U(0
,1)
a=0.86
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
C1[F(x),G(y)]
U(0
,1)
a=0.722
Grafica 5-14.: Metodo grafico I aplicado las copulas resultantes por maxima Verosimilitud
5.1 Simulacion Copula Clayton 61
De manera similar, se muestra a continuacion el resultado luego de aplicar el metodo
grafico II para las copulas resultantes del metodo de Genest y Rivest y maxima
verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.00.0
0.4
0.8
Family 15
Kc[C(F(x),G(y))]
U(0
,1)
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 18
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-15.: Metodo grafico II aplicado las copulas resultantes por Genest y Rivest
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-16.: Metodo grafico II aplicado las copulas resultantes por maxima
Verosimilitud
Se realiza el mismo procedimiento con el metodo grafico III, los resultados se muestran
a continuacion:
62 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=8.147
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=10.147
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=5.074
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=8.147
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=3.382
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=4.574
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 15
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=5.574
Grafica 5-17.: Metodo grafico III aplicado las copulas resultantes por Genest y Rivest
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=7.446
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=18.074
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=14.902
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=106370.3
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.86
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.722
Grafica 5-18.: Metodo grafico III aplicado las copulas resultantes por maxima
verosimilitud
4. Finalmente, se seleccionan las copulas que mejor se ajustan en cada metodo y se
aplica la prueba de Kolmogorov-Smirnov en cada caso. Los resultados se muestran
en las siguientes tablas:
5.1 Simulacion Copula Clayton 63
Valores P para el metodo grafico I: Luego de aplicar el metodo grafico I, se
seleccionan entonces, por el metodo de Genest y Rivest, a las copulas 1, 12 y 14, y
por el metodo de maxima verosimilitud se decide calcular el valor-p para las copulas
1, 5, 13 y 17. Los resultados se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.7906636 0.8978164
5 (Frank) • 0.2398713
12 0.4782729 •13 • 0.7939094
14 0.1569932 •17 • 0.4500542
Tabla 5-11.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Clayton
con τ = 0.8
Valores P para el metodo grafico II: En este caso, se seleccionan, por el metodo
de Genest y Rivest, a las copulas 1, 2, 4, 12, 14, 15 y 18. Por el metodo de maxima
verosimilitud se decide calcular el valor-p para las copulas 1, 5 y 13. Los resultados
se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.9986463 0.9916266
2 0.5891771 •4 (Gumbel) 0.6331819 •5 (Frank) • 0.9576746
12 0.7851302 •13 • 0.9958261
14 0.6702579 •15 0.6011886 •18 4.043566e-06 •
Tabla 5-12.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Clayton
con τ = 0.8
Valores P para el metodo grafico III: En este caso, se seleccionan, por el metodo
de Genest y Rivest, las copulas 1, 2, 4, 5, 12, 14 y 15. Por el metodo de maxima
verosimilitud se decide calcular el valor-p para las copulas 1, 5 y 13. Los resultados
se muestran a continuacion:
64 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.9999976 0.9999272
2 0.1211884 •4 (Gumbel) 0.9408423 •5 (Frank) 0.8474885 0.9999272
12 0.9700409 •13 • 0.9999976
14 0.9408423 •15 0.8995694 •18 • •
Tabla 5-13.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Clayton
con τ = 0.8
Cuando los datos son generados con la copula Clayton con τ = 0.8, se obtiene como
resultado con el metodo grafico I que solo la copula 1 (Clayton), es seleccionada, pues es
la que tiene el valor-P mas alto (0.7906), cuando se estima el parametro de dependecia
con el metodo de Genest y Rivest, lo que se aprecia tambien de forma grafica. Cuando se
estima el parametro por maxima versosimilitud, el metodo grafico I selecciona la copula 1
(Clayton), pues es la que presenta el valor p mas alto (0.8978). En ambos casos la copula
Clayton es la que presenta el mejor ajuste, pues sus valores p son los mas altos.
Usando el metodo grafico II, se escoge la copula 1 (Clayton), pues es la que presenta el
mejor ajuste graficamente y su valor-P es el mas alto. Cuando se estima el parametro de
dependencia por maxima verosimilitud, se escogen las copulas 1 (Clayton), 5 (Frank) y 13,
como posibles candidatas para representar los datos pues son las que presentan el mejor
ajuste en las graficas presentadas y valores-P mas altos.
Usando el metodo grafico III, se escogen las copulas 1 (Clayton) y 12 cuando se estiman
el parametro de dependencia por el metodo de Genest y Rivest, pues son los modelos
que presentan los valores P mas altos y mejor ajuste graficamente, en particular, el mejor
candidato en este caso es la copula Clayton pues es la que presenta el valor P mas alto:
0.99999. Cuando se estima el parametro de dependencia por maxima verosimilitud, se
escogen las copulas 1 (Clayton), 5 (Frank) y 13, pues son las que presentan los valores P
mas altos y el mejor ajuste en las graficas presentadas.
5.2 Simulacion Copula Gumbel 65
5.2. Simulacion Copula Gumbel
En esta seccion, se presenta la simulacion de los datos usando la copula Gumbel para
valores de τ de 0.2, 0.5 y 0.8.
5.2.1. Copula Gumbel Usando τ = 0.2
Para esta familia copula, se tiene que con τ = 0.2, el verdadero valor del parametro es
α = 1.25
1. En primer lugar se realiza la estimacion del parametro de dependencia usando Genest
y Rivest y el metodo de maxima verosimilitud (EMV), los resultados se muestran en
la siguiente tabla:
66 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Familia Genest y Rivest α1 Valido EMV α2 Valido
1 (Clayton) 0.4247888 Si 0.2479858 Si
2 2.424789 Si • −3 • − 0.5443786 Si
4 (Gumbel) 1.212394 Si 0.86 No
5 (Frank) 0.4247888 Si 1.600667 Si
6 • − 0.86 No
7 • − • −8 8.430951 Si • −9 • − -0.2635251 No
10 • − -0.1979488 No
11 • − • −12 0.8082629 No 0.86 No
13 • − 1.637537 Si
14 0.7123944 No 0.86 No
15 1.712394 Si • −16 • − 0.8260482 Si
17 • − 1.518237 Si
18 1.616526 No • −19 • − 0.86 Si
20 • − 0.1069783 Si
Tabla 5-14.: Estimacion de α para la copula Gumbel, τ = 0.2
2. Por los resultados dados en la tabla anterior, se escogen entonces por el metodo de
Genest y Rivest las copulas 1, 2, 4, 5, 8 y 15. Por el metodo de maxima verosimilitud
se escogen las copulas 1, 3, 5, 13, 16, 17, 19 y 20.
3. A continuacion se aplican los metodos graficos I, II y III para cada una de las copulas
resultantes del proceso anterior usando la estimacion de Genest y Rivest y el metodo
de maxima verosimilitud.
5.2 Simulacion Copula Gumbel 67
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=0.425
0.0 0.2 0.4 0.6 0.8 1.0 1.2
0.0
0.4
0.8
Family 4
C1[F(x),G(y)]
U(0
,1)
a=1.212
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=0.425
Grafica 5-19.: Metodo grafico I aplicado las copulas resultantes por Genest y Rivest,
Copula Gumbel con τ = 0.2
En la grafica 5-19 se muestra el resultado del metodo grafico I aplicado a las copulas
seleccionadas por el metodo de Genest y Rivest, en este caso, el metodo no arrojo
un resultado para las copulas 2, 8 y 15 pues sus primeras derivadas no tienen forma
cerrada y el metodo grafico I hace uso de dichas derivadas. A continuacion se muestra
el resultado para las copulas seleccionadas por el metodo de maxima verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=0.248
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
C1[F(x),G(y)]
U(0
,1)
a=0.544
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=1.601
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
C1[F(x),G(y)]
U(0
,1)
a=1.638
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
C1[F(x),G(y)]
U(0
,1)
a=0.826
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 17
C1[F(x),G(y)]
U(0
,1)
a=1.518
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
C1[F(x),G(y)]
U(0
,1)
a=0.86
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
C1[F(x),G(y)]
U(0
,1)
a=0.107
Grafica 5-20.: Metodo grafico I aplicado las copulas resultantes por maxima Verosimili-
tud, Copula Gumbel con τ = 0.2
68 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
De manera similar, se muestra a continuacion el resultado luego de aplicar el metodo
grafico II para las copulas resultantes del metodo de Genest y Rivest y maxima
verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.4 0.5 0.6 0.7 0.8 0.9 1.00.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 8
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 15
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-21.: Metodo grafico II aplicado las copulas resultantes por Genest y Rivest,
Copula Gumbel con τ = 0.2
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-22.: Metodo grafico II aplicado las copulas resultantes por maxima verosimili-
tud, Copula Gumbel con τ = 0.2
Se realiza el mismo procedimiento con el metodo grafico III, los resultados se muestran
a continuacion:
5.2 Simulacion Copula Gumbel 69
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]E
mpir
ical d.f.
a=0.425
0.4 0.5 0.6 0.7 0.8 0.9 1.0
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=2.425
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.212
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.425
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 8
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=8.431
Grafica 5-23.: Metodo grafico III aplicado las copulas resultantes por Genest y Rivest,
Copula Gumbel con τ = 0.2
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.248
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.544
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.601
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.638
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.826
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.86
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.107
Grafica 5-24.: Metodo grafico III aplicado las copulas resultantes por maxima verosimi-
litud, Copula Gumbel con τ = 0.2
4. Finalmente, se seleccionan las copulas que mejor se ajustan en cada metodo y se
aplica la prueba de Kolmogorov-Smirnov en cada caso. Los resultados se muestran
en las siguientes tablas:
70 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Valores P para el metodo grafico I: Luego de aplicar el metodo grafico I, se
seleccionan entonces, por el metodo de Genest y Rivest, a las copulas 1, 4 y 5. Por
el metodo de maxima verosimilitud se decide calcular el valor-p para las copulas 1,
3, 5, 13, 17 y 20. Los resultados se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.411426799 0.9497029
3 • 0.8981243
4 (Gumbel) 0.000789266 •5 (Frank) 0.999996897 0.9349473
13 • 0.8261945
17 • 0.8708023
20 • 0.9891972
Tabla 5-15.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Gumbel
con τ = 0.2
Valores P para el metodo grafico II: En este caso, se seleccionan, por el metodo
de Genest y Rivest, a las copulas 1, 4, 5, y 8. Por el metodo de maxima verosimilitud
se decide calcular el valor-p para las copulas 1, 3, 5, 13 y 20. Los resultados se
muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.303645451 0.4859877
3 • 0.7762521
4 (Gumbel) 0.929933025 •5 (Frank) 0.510993949 0.8716213
8 0.000431633 •13 • 0.5911708
20 • 0.5087336
Tabla 5-16.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Gumbel
con τ = 0.2
Valores P para el metodo grafico III: En este caso, se seleccionan, por el metodo
de Genest y Rivest, las copulas 1, 4, 5 y 8. Por el metodo de maxima verosimilitud se
decide calcular el valor-p para las copulas 1, 3, 5, 13 y 20. Los resultados se muestran
a continuacion:
5.2 Simulacion Copula Gumbel 71
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.7211625 0.8995694
3 • 0.9408423
4 (Gumbel) 0.9876983 •5 (Frank) 0.8995694 0.9876983
8 0.0265997 •13 • 0.9408423
20 • 0.8995694
Tabla 5-17.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Gumbel
con τ = 0.2
Cuando los datos son generados con la copula Gumbel con τ = 0.2, se obtiene como resulta-
do con el metodo grafico I que las copulas 1 (Clayton) y 5 (Frank), son seleccionadas, pues
son las que tienen los valores-P mas altos, cuando se estima el parametro de dependencia
con el metodo de Genest y Rivest, lo que se aprecia tambien de forma grafica, en este
caso, el metodo falla, pues no logra identificar la copula de donde se simularon los datos
o por lo menos seleccionarla como una posible candidata. Cuando se estima el parametro
por maxima versosimilitud, el metodo grafico I selecciona la copula 1 (Clayton), 5 (Frank)
y 20 pues son las que presentan valores-P mas altos. Cabe resaltar que cuando se estima
el parametro de dependencia por maxima verosimilitud y los datos son generados de una
copula Gumbel, los metodos no seleccionan a la copula Gumbel como un posible candida-
to porque no hay una forma cerrada para dicha copula usando maxima verosimilitud, sin
embargo, el metodo si selecciona otras copulas que pueden ser posibles candidatos y que
presentan un buen ajuste.
Usando el metodo grafico II, se escoge la copula 4 (Gumbel), pues es la que presenta el mejor
ajuste graficamente y su valor-P es el mas alto, en este caso el metodo acierta. Cuando
se estima el parametro de dependencia por maxima verosimilitud, se escoge la copulas 5
(Frank), como posible candidata para representar los datos pues es la que presenta el mejor
ajuste en las graficas presentadas y valor-P mas alto.
Usando el metodo grafico III, se escoge la copula 4 (Gumbel), pues es la que presenta
el mejor ajuste graficamente y su valor-P es el mas alto, en este caso el metodo acierta.
Cuando se estima el parametro de dependencia por maxima verosimilitud, se escogen las
copulas 3, 5 (Frank) y 13, pues son las que presentan los valores P mas altos y el mejor
ajuste en las graficas presentadas.
5.2.2. Copula Gumbel Usando τ = 0.5
Para esta familia copula, se tiene que con τ = 0.5, el verdadero valor del parametro es
α = 2
72 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
1. En primer lugar se realiza la estimacion del parametro de dependencia usando Genest
y Rivest y el metodo de maxima verosimilitud (EMV), los resultados se muestran en
la siguiente tabla:
Familia Genest y Rivest α1 Valido EMV α2 Valido
1 (Clayton) 1.96692 Si 1.115868 Si
2 3.96692 Si • −3 • − 0.972911 Si
4 (Gumbel) 1.98346 Si 0.86 No
5 (Frank) 1.96692 Si 5.586324 Si
6 • − 0.86 No
7 • − • −8 -8.205269 No • −9 • − -0.235108 No
10 • − -0.7656491 No
11 • − • −12 1.322307 Si 0.86 No
13 • − 3.801665 Si
14 1.48346 Si 0.86 No
15 2.48346 Si • −16 • − 102192.5 Si
17 • − 7.598207 Si
18 2.644613 Si • −19 • − 0.86 Si
20 • − 0.2934184 Si
Tabla 5-18.: Estimacion de α para la copula Gumbel, τ = 0.5
2. Por los resultados dados en la tabla anterior, se escogen entonces por el metodo de
Genest y Rivest las copulas 1, 2, 4, 5, 12, 14, 15 y 18. Por el metodo de maxima
verosimilitud se escogen las copulas 1, 3, 5, 13, 16, 17, 19 y 20.
3. A continuacion se aplican los metodos graficos I, II y III para cada una de las copulas
resultantes del proceso anterior usando la estimacion de Genest y Rivest y el de
maxima verosimilitud para el parametro de dependencia.
5.2 Simulacion Copula Gumbel 73
0.0 0.2 0.4 0.6 0.8 1.00
.00
.40
.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=1.967
0.0 0.5 1.0 1.5
0.0
0.4
0.8
Family 4
C1[F(x),G(y)]
U(0
,1)
a=1.983
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=1.967
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
C1[F(x),G(y)]
U(0
,1)
a=1.322
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
C1[F(x),G(y)]
U(0
,1)
a=1.483
Grafica 5-25.: Metodo grafico I aplicado las copulas resultantes por Genest y Rivest,
Copula Gumbel con τ = 0.5
En la grafica 3 se muestra el resultado del metodo grafico I aplicado a las copulas
seleccionadas por el metodo de Genest y Rivest, en este caso, el metodo no arrojo
un resultado para las copulas 2, 8 y 15 pues sus primeras derivadas no tienen forma
cerrada y el metodo grafico I hace uso de dichas derivadas. A continuacion se muestra
el resultado para las copulas seleccionadas por el metodo de maxima verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=1.116
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
C1[F(x),G(y)]
U(0
,1)
a=0.973
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=5.586
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
C1[F(x),G(y)]
U(0
,1)
a=3.802
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
C1[F(x),G(y)]
U(0
,1)
a=102192.5
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 17
C1[F(x),G(y)]
U(0
,1)
a=7.598
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
C1[F(x),G(y)]
U(0
,1)
a=0.86
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
C1[F(x),G(y)]
U(0
,1)
a=0.293
Grafica 5-26.: Metodo grafico I aplicado las copulas resultantes por maxima Verosimili-
tud, Copula Gumbel con τ = 0.5
74 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
De manera similar, se muestra a continuacion el resultado luego de aplicar el metodo
grafico II para las copulas resultantes del metodo de Genest y Rivest y maxima
verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 15
Kc[C(F(x),G(y))]
U(0
,1)
0.4 0.5 0.6 0.7 0.8 0.9 1.0
0.0
0.4
0.8
Family 18
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-27.: Metodo grafico II aplicado las copulas resultantes por Genest y Rivest,
Copula Gumbel con τ = 0.5
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-28.: Metodo grafico II aplicado las copulas resultantes por maxima verosimili-
tud, Copula Gumbel con τ = 0.5
Se realiza el mismo procedimiento con el metodo grafico III, los resultados se muestran
a continuacion:
5.2 Simulacion Copula Gumbel 75
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.967
0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=3.967
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.983
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.967
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.322
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.483
Grafica 5-29.: Metodo grafico III aplicado las copulas resultantes por Genest y Rivest,
Copula Gumbel con τ = 0.5
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.116
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.973
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=5.586
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=3.802
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=102192.5
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.86
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.293
Grafica 5-30.: Metodo grafico III aplicado las copulas resultantes por maxima verosimi-
litud, Copula Gumbel con τ = 0.5
4. Finalmente, se seleccionan las copulas que mejor se ajustan en cada metodo y se
aplica la prueba de Kolmogorov-Smirnov en cada caso. Los resultados se muestran
en las siguientes tablas:
76 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Valores P para el metodo grafico I: Luego de aplicar el metodo grafico I, se
seleccionan entonces, por el metodo de Genest y Rivest, a las copulas 1, 5,12 y 14.
Por el metodo de maxima verosimilitud se decide calcular el valor-p para las copulas
1, 3, 5, 13, 16, 17 y 20. Los resultados se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.1470033 0.6566567
3 • 0.7441318
4 (Gumbel) • •5 (Frank) 0.4578680 0.2619845
12 0.3794824 •13 • 0.6072086
14 0.3503042 •16 • 0.7190847
17 • 0.4059064
20 • 0.6390347
Tabla 5-19.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Gumbel
con τ = 0.5
Valores P para el metodo grafico II: En este caso, se seleccionan, por el metodo
de Genest y Rivest, a las copulas 1, 4, 5, 12 y 14. Por el metodo de maxima verosi-
militud se decide calcular el valor-p para las copulas 1, 3, 5, 13 y 16. Los resultados
se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.38284827 0.3210969
3 • 0.1994343
4 (Gumbel) 0.89245846 •5 (Frank) 0.04741486 0.7349686
8 • •12 0.71103009 •13 • 0.8119596
14 0.74268502 •16 • 0.2335874
Tabla 5-20.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Gumbel
con τ = 0.5
5.2 Simulacion Copula Gumbel 77
Valores P para el metodo grafico III: En este caso, se seleccionan, por el metodo
de Genest y Rivest, las copulas 1, 4, 12 y 14. Por el metodo de maxima verosimilitud
se decide calcular el valor-p para las copulas 1, 3, 5, 13, 16, 19 y 20. Los resultados
se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.6527114 0.7211625
3 • 0.5841819
4 0.9962552 •5 (Frank) • 0.9408423
8 • •12 0.9408423 •13 • 0.9700409
14 0.9700409 •16 • 0.6527114
19 • 0.3412249
20 • 0.2923143
Tabla 5-21.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Gumbel
con τ = 0.5
Cuando los datos son generados con la copula Gumbel con τ = 0.5, se obtiene como
resultado con el metodo grafico I que solo la copula 5 (Frank) es seleccionada, pues es la
que tiene el valor-P mas alto (0.4578), cuando se estima el parametro de dependecia con
el metodo de Genest y Rivest, lo que se aprecia tambien de forma grafica, en este caso,
el metodo falla, pues no logra identificar la copula de donde se simularon los datos o por
lo menos seleccionarla como una posible candidata. Cuando se estima el parametro por
maxima verosimilitud, el metodo grafico I selecciona la copula 3 y 16 pues son las que
presentan valores-P mas altos.
Usando el metodo grafico II, se escoge la copula 4 (Gumbel), pues es la que presenta el
mejor ajuste graficamente y su valor-P es el mas alto, en este caso el metodo acierta.
Cuando se estima el parametro de dependencia por maxima verosimilitud, se escogen las
copulas 5 (Frank) y 13 como posibles candidatas para representar los datos pues son las
que presentan el mejor ajuste en las graficas presentadas y valores-P mas altos.
Usando el metodo grafico III, se escoge la copula 4 (Gumbel), pues es la que presenta
el mejor ajuste graficamente y su valor-P es el mas alto, en este caso el metodo acierta.
Cuando se estima el parametro de dependencia por maxima verosimilitud, se escogen las
copulas 5 (Frank) y 13, pues son las que presentan los valores P mas altos y el mejor ajuste
en las graficas presentadas.
78 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
5.2.3. Copula Gumbel Usando τ = 0.8
Para esta familia copula, se tiene que con τ = 0.8, el verdadero valor del parametro es
α = 5
1. En primer lugar se realiza la estimacion del parametro de dependencia usando Genest
y Rivest y el metodo de maxima verosimilitud (EMV), los resultados se muestran en
la siguiente tabla:
5.2 Simulacion Copula Gumbel 79
Familia Genest y Rivest α1 Valido EMV α2 Valido
1 (Clayton) 7.777632 Si 3.749149 Si
2 9.777632 Si • −3 • − 1.005361 No
4 (Gumbel) 4.888816 Si 0.86 No
5 (Frank) 7.777632 Si 16.8225 Si
6 • − 0.86 No
7 • − • −8 -2.885265 No • −9 • − -27.56243 No
10 • − -0.7050527 No
11 • − • −12 3.259211 Si 0.86 No
13 • − 10.64478 Si
14 4.388816 Si 0.86 No
15 5.388816 Si • −16 • − 109449.3 Si
17 • − 23.22195 Si
18 6.518422 Si • −19 • − 0.86 Si
20 • − 0.4643665 Si
Tabla 5-22.: Estimacion de α para la copula Gumbel, τ = 0.8
2. Por los resultados dados en la tabla anterior, se escogen entonces por el metodo de
Genest y Rivest las copulas 1, 2, 4, 5, 12, 14, 15 y 18. Por el metodo de maxima
verosimilitud se escogen las copulas 1, 5, 13, 16, 17, 19 y 20.
3. A continuacion se aplican los metodos graficos I, II y III para cada una de las copulas
resultantes del proceso anterior usando la estimacion de Genest y Rivest y el metodo
de maxima verosimilitud.
80 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=7.778
0.0 0.5 1.0 1.5 2.0
0.0
0.4
0.8
Family 4
C1[F(x),G(y)]
U(0
,1)
a=4.889
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=7.778
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
C1[F(x),G(y)]
U(0
,1)
a=3.259
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
C1[F(x),G(y)]
U(0
,1)
a=4.389
Grafica 5-31.: Metodo grafico I aplicado las copulas resultantes por Genest y Rivest,
Copula Gumbel con τ = 0.8
En la grafica 5-31 se muestra el resultado del metodo grafico I aplicado a las copulas
seleccionadas por el metodo de Genest y Rivest, en este caso, el metodo no arrojo
un resultado para las copulas 2, 15 y 18 pues sus primeras derivadas no tienen forma
cerrada y el metodo grafico I hace uso de dichas derivadas. A continuacion se muestra
el resultado para las copulas seleccionadas por el metodo de maxima verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=3.749
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=16.823
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
C1[F(x),G(y)]
U(0
,1)
a=10.645
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
C1[F(x),G(y)]
U(0
,1)
a=109449.3
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 17
C1[F(x),G(y)]
U(0
,1)
a=23.222
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
C1[F(x),G(y)]
U(0
,1)
a=0.86
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
C1[F(x),G(y)]
U(0
,1)
a=0.464
Grafica 5-32.: Metodo grafico I aplicado las copulas resultantes por maxima Verosimili-
tud, Copula Gumbel con τ = 0.8
5.2 Simulacion Copula Gumbel 81
De manera similar, se muestra a continuacion el resultado luego de aplicar el metodo
grafico II para las copulas resultantes del metodo de Genest y Rivest y maxima
verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 15
Kc[C(F(x),G(y))]
U(0
,1)
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 18
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-33.: Metodo grafico II aplicado las copulas resultantes por Genest y Rivest,
Copula Gumbel con τ = 0.8
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-34.: Metodo grafico II aplicado las copulas resultantes por maxima verosimili-
tud, Copula Gumbel con τ = 0.8
Se realiza el mismo procedimiento con el metodo grafico III, los resultados se muestran
a continuacion:
82 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=7.778
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=9.778
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=4.889
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=7.778
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=3.259
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
Kc[C(F(x),G(y))]E
mp
iric
al d
.f.
a=4.389
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 15
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=5.389
Grafica 5-35.: Metodo grafico III aplicado las copulas resultantes por Genest y Rivest,
Copula Gumbel con τ = 0.8
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=3.749
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=16.823
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=10.645
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=109449.3
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.86
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.464
Grafica 5-36.: Metodo grafico III aplicado las copulas resultantes por maxima verosimi-
litud, Copula Gumbel con τ = 0.8
4. Finalmente, se seleccionan las copulas que mejor se ajustan en cada metodo y se
aplica la prueba de Kolmogorov-Smirnov en cada caso. Los resultados se muestran
en las siguientes tablas:
5.2 Simulacion Copula Gumbel 83
Valores P para el metodo grafico I: Luego de aplicar el metodo grafico I, se
seleccionan entonces, por el metodo de Genest y Rivest, a las copulas 1, 12 y 14. Por
el metodo de maxima verosimilitud se decide calcular el valor-p para las copulas 1,
5, 13, 17 y 19. Los resultados se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.009095391 0.08535427
5 (Frank) • 0.40536126
12 0.682248366 •13 • 0.31537486
14 0.839721720 •17 • 0.49885822
19 • 0.13243109
Tabla 5-23.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Gumbel
con τ = 0.8
Valores P para el metodo grafico II: En este caso, se seleccionan, por el metodo
de Genest y Rivest, a las copulas 1, 2, 4, 5, 12, 14 y 15. Por el metodo de maxima
verosimilitud se decide calcular el valor-p para las copulas 1, 5 y 13. Los resultados
se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.808534834 0.4154773
2 0.003761767 •4 (Gumbel) 0.989048730 •5 (Frank) 0.689081490 0.9341082
12 0.990032732 •13 • 0.9017965
14 0.996685940 •15 0.972154129 •
Tabla 5-24.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Gumbel
con τ = 0.8
Valores P para el metodo grafico III: En este caso, se seleccionan, por el metodo
de Genest y Rivest, todas las copulas graficadas por el metodo grafico III. Por el
metodo de maxima verosimilitud se decide calcular el valor-p para las copulas 1, 5 y
13. Los resultados se muestran a continuacion:
84 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.98769827 0.7870443
2 0.09956185 •4 (Gumbel) 0.99992721 •5 (Frank) 0.94084227 0.9992670
12 0.99926698 •13 • 0.9962552
14 0.99999759 •15 0.99992721 •
Tabla 5-25.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Gumbel
con τ = 0.8
Cuando los datos son generados con la copula Gumbel con τ = 0.8, se obtiene como
resultado con el metodo grafico I que las copulas 12 y 14 son seleccionadas, pues son las
que tienen los valores-P mas altos, cuando se estima el parametro de dependecia con el
metodo de Genest y Rivest, lo que se aprecia tambien de forma grafica, en este caso, el
metodo falla, pues no logra identificar la copula de donde se simularon los datos o por
lo menos seleccionarla como una posible candidata. Cuando se estima el parametro por
maxima verosimilitud, el metodo grafico I selecciona las copulas 5 y 17 pues son las que
presentan valores-P mas altos.
Usando el metodo grafico II, se escogen las copulas 4 (Gumbel), 12, 14 y 15 pues son las
que presentan el mejor ajuste graficamente y sus valores-P son los mas alto, en este caso el
metodo incluye como una posible candidata a la copula de donde se simularon los datos.
Cuando se estima el parametro de dependencia por maxima verosimilitud, se escogen las
copulas 5 (Frank) y 13 como posibles candidatas para representar los datos pues son las
que presentan el mejor ajuste en las graficas presentadas y valores-P mas altos.
Usando el metodo grafico III, se escogen las copulas 4 (Gumbel), 12, 14 y 15 pues son las
que presentan el mejor ajuste graficamente y sus valores-P son los mas alto, en este caso el
metodo incluye como una posible candidata a la copula de donde se simularon los datos.
Cuando se estima el parametro de dependencia por maxima verosimilitud, se escogen las
copulas 5 (Frank) y 13, pues son las que presentan los valores P mas altos y el mejor ajuste
en las graficas presentadas.
5.3 Simulacion Copula Frank 85
5.3. Simulacion Copula Frank
En esta seccion, se presenta la simulacion de los datos usando la copula Frank para valores
de τ de 0.2, 0.5 y 0.8.
5.3.1. Copula Frank Usando τ = 0.2
Para esta familia copula, se tiene que con τ = 0.2, el verdadero valor del parametro es
α = 1.860884
1. En primer lugar se realiza la estimacion del parametro de dependencia usando Genest
y Rivest y el metodo de maxima verosimilitud (EMV), los resultados se muestran en
la siguiente tabla:
86 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Familia Genest y Rivest α1 Valido EMV α2 Valido
1 (Clayton) 0.5592011 Si 0.4169161 Si
2 2.559201 Si • −3 • − 0.7262241 Si
4 (Gumbel) 1.279601 Si 0.86 No
5 (Frank) 0.5592011 Si 2.056746 Si
6 • − 0.86 No
7 • − • −8 11.61165 Si • −9 • − -0.2131379 No
10 • − -0.1529198 No
11 • − • −12 0.853067 No 0.86 No
13 • − 1.946265 Si
14 0.7796006 No 0.86 No
15 1.779601 Si • −16 • − 1.431808 Si
17 • − 2.409513 Si
18 1.706134 No • −19 • − -0.002242271 No
20 • − 0.1672309 Si
Tabla 5-26.: Estimacion de α para la copula Frank, τ = 0.2
2. Por los resultados dados en la tabla anterior, se escogen entonces por el metodo de
Genest y Rivest las copulas 1, 2, 4, 5, 8 y 15. Por el metodo de maxima verosimilitud
se escogen las copulas 1, 3, 5, 13, 16, 17 y 20.
3. A continuacion se aplican los metodos graficos I, II y III para cada una de las copulas
resultantes del proceso anterior usando la estimacion de Genest y Rivest y el metodo
de maxima verosimilitud.
5.3 Simulacion Copula Frank 87
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=0.559
0.0 0.2 0.4 0.6 0.8 1.0 1.2
0.0
0.4
0.8
Family 4
C1[F(x),G(y)]
U(0
,1)
a=1.28
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=0.559
Grafica 5-37.: Metodo grafico I aplicado las copulas resultantes por Genest y Rivest,
Copula Frank con τ = 0.2
En la grafica 5-37 se muestra el resultado del metodo grafico I aplicado a las copulas
seleccionadas por el metodo de Genest y Rivest, en este caso, el metodo no arrojo
un resultado para las copulas 2, 8 y 15 pues sus primeras derivadas no tienen forma
cerrada y el metodo grafico I hace uso de dichas derivadas. A continuacion se muestra
el resultado para las copulas seleccionadas por el metodo de maxima verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=0.417
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
C1[F(x),G(y)]
U(0
,1)
a=0.726
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=2.057
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
C1[F(x),G(y)]
U(0
,1)
a=1.946
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
C1[F(x),G(y)]
U(0
,1)
a=1.432
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 17
C1[F(x),G(y)]
U(0
,1)
a=2.41
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
C1[F(x),G(y)]
U(0
,1)
a=0.167
Grafica 5-38.: Metodo grafico I aplicado las copulas resultantes por maxima Verosimili-
tud, Copula Frank con τ = 0.2
88 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
De manera similar, se muestra a continuacion el resultado luego de aplicar el metodo
grafico II para las copulas resultantes del metodo de Genest y Rivest y maxima
verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.4 0.5 0.6 0.7 0.8 0.90.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 8
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 15
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-39.: Metodo grafico II aplicado las copulas resultantes por Genest y Rivest,
Copula Frank con τ = 0.2
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-40.: Metodo grafico II aplicado las copulas resultantes por maxima verosimili-
tud, Copula Frank con τ = 0.2
Se realiza el mismo procedimiento con el metodo grafico III, los resultados se muestran
a continuacion:
5.3 Simulacion Copula Frank 89
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]E
mpir
ical d.f.
a=0.559
0.4 0.5 0.6 0.7 0.8 0.9
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=2.559
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.28
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.559
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 8
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=11.612
Grafica 5-41.: Metodo grafico III aplicado las copulas resultantes por Genest y Rivest,
Copula Frank con τ = 0.2
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.417
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.726
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=2.057
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.946
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.432
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.167
Grafica 5-42.: Metodo grafico III aplicado las copulas resultantes por maxima verosimi-
litud, Copula Frank con τ = 0.2
4. Finalmente, se seleccionan las copulas que mejor se ajustan en cada metodo y se
aplica la prueba de Kolmogorov-Smirnov en cada caso. Los resultados se muestran
en las siguientes tablas:
90 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Valores P para el metodo grafico I: Luego de aplicar el metodo grafico I, se
seleccionan entonces, por el metodo de Genest y Rivest, a las copulas 1 y 5. Por el
metodo de maxima verosimilitud se decide calcular el valor-p para las copulas 1, 3,
5, 13, 16, 17 y 20. Los resultados se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.9476252 0.9985590
3 • 0.9749340
4 (Gumbel) • •5 (Frank) 0.9998163 0.8557188
13 • 0.9904582
16 • 0.6050466
17 • 0.8996072
20 • 0.9998590
Tabla 5-27.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Frank con
τ = 0.2
Valores P para el metodo grafico II: En este caso, se seleccionan, por el metodo
de Genest y Rivest, a las copulas 1, 4, 5 y 8. Por el metodo de maxima verosimilitud
se decide calcular el valor-p para las copulas 1, 3, 5, 13, 16 y 20. Los resultados se
muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.81281954 0.7373670
3 • 0.9585151
4 (Gumbel) 0.94842957 •5 (Frank) 0.40137861 0.9983852
8 0.02335629 •13 • 0.9791651
16 • 0.3877377
20 • 0.6550393
Tabla 5-28.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Frank
con τ = 0.2
Valores P para el metodo grafico III: En este caso, se seleccionan, por el metodo
de Genest y Rivest, las copulas 1, 4, 5 y 8. Por el metodo de maxima verosimilitud
se decide calcular el valor-p para las copulas 1, 3, 5, 13, 16 y 20. Los resultados se
muestran a continuacion:
5.3 Simulacion Copula Frank 91
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.9876983 0.9700409
3 • 0.9992670
4 (Gumbel) 0.9992670 •5 (Frank) 0.7870443 0.9999272
8 0.2923143 •13 • 0.9992670
16 • 0.7211625
20 • 0.9408423
Tabla 5-29.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Frank
con τ = 0.2
Cuando los datos son generados con la copula Frank con τ = 0.2, se obtiene como resultado
con el metodo grafico I que las copulas 1 (Clayton) y 5 (Frank) son seleccionadas, pues
son las que tienen los valores-P mas altos, cuando se estima el parametro de dependecia
con el metodo de Genest y Rivest, lo que se aprecia tambien de forma grafica, en este
caso, el metodo acierta, pues selecciona como posible candidata a la copula Frank y es la
que tiene el valor-P mas alto. Cuando se estima el parametro por maxima verosimilitud,
el metodo grafico I proporciona muchos posibles candidatos para modelar los datos, entre
estos modelos esta la copula 5 de donde provienen los datos.
Usando el metodo grafico II, se escogen las copulas 1 (Clayton), 4 (Gumbel) y 5 (Frank)
pues son las que presentan el mejor ajuste graficamente y sus valores-P son los mas alto, en
este caso el metodo incluye como una posible candidata a la copula de donde se simularon
los datos con un valor-P de 0.4013. Cuando se estima el parametro de dependencia por
maxima verosimilitud, se escogen las copulas 3, 5 (Frank) y 13 como posibles candidatas
para representar los datos pues son las que presentan el mejor ajuste en las graficas presen-
tadas y valores-P mas altos, en este caso el metodo acierta y entre los modelos seleccionados
se incluye la copula de la que provienen los datos, ademas es la que presenta el valor-P
mas alto.
Usando el metodo grafico III, se escogen las copulas 1(Clayton), 4 (Gumbel) y 5 pues son
las que presentan el mejor ajuste graficamente y sus valores-P son los mas alto, en este
caso el metodo incluye como una posible candidata a la copula de donde se simularon los
datos, por lo que proporciona un resultado acertado. Cuando se estima el parametro de
dependencia por maxima verosimilitud, se escogen las copulas 1 (Clayton), 3, 5 (Frank)
y 13, pues son las que presentan los valores P mas altos y el mejor ajuste en las graficas
presentadas.
92 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
5.3.2. Copula Frank Usando τ = 0.5
Para esta familia copula, se tiene que con τ = 0.5, el verdadero valor del parametro es
α = 5.736283
1. En primer lugar se realiza la estimacion del parametro de dependencia usando Genest
y Rivest y el metodo de maxima verosimilitud (EMV), los resultados se muestran en
la siguiente tabla:
5.3 Simulacion Copula Frank 93
Familia Genest y Rivest α1 Valido EMV α2 Valido
1 (Clayton) 1.964115 Si 1.018518 Si
2 3.964115 Si • −3 • − 0.9433932 Si
4 (Gumbel) 1.982058 Si 0.86 No
5 (Frank) 1.964115 Si 5.657317 Si
6 • − 0.86 No
7 • − • −8 -8.223322 No • −9 • − -0.2059786 No
10 • − -0.7498588 No
11 • − • −12 1.321372 Si 0.86 No
13 • − 3.710056 Si
14 1.482058 Si 0.86 No
15 2.482058 Si • −16 • − 99558.37 Si
17 • − 7.781852 Si
18 2.642744 Si • −19 • − 0.86 Si
20 • − 0.2706178 Si
Tabla 5-30.: Estimacion de α para la copula Frank, τ = 0.5
2. Por los resultados dados en la tabla anterior, se escogen entonces por el metodo de
Genest y Rivest las copulas 1, 2, 4, 5, 12, 14, 15 y 18.. Por el metodo de maxima
verosimilitud se escogen las copulas 1, 3, 5, 13, 16, 17, 19 y 20.
3. A continuacion se aplican los metodos graficos I, II y III para cada una de las copulas
resultantes del proceso anterior usando la estimacion de Genest y Rivest y el de
maxima verosimilitud para el parametro de dependencia.
94 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=1.964
0.0 0.5 1.0 1.5
0.0
0.4
0.8
Family 4
C1[F(x),G(y)]
U(0
,1)
a=1.982
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=1.964
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
C1[F(x),G(y)]
U(0
,1)
a=1.321
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
C1[F(x),G(y)]
U(0
,1)
a=1.482
Grafica 5-43.: Metodo grafico I aplicado las copulas resultantes por Genest y Rivest,
Copula Frank con τ = 0.5
En la grafica 5-43 se muestra el resultado del metodo grafico I aplicado a las copulas
seleccionadas por el metodo de Genest y Rivest, en este caso, el metodo no arrojo
un resultado para las copulas 2, 15 y 18 pues sus primeras derivadas no tienen forma
cerrada y el metodo grafico I hace uso de dichas derivadas. A continuacion se muestra
el resultado para las copulas seleccionadas por el metodo de maxima verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=1.019
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
C1[F(x),G(y)]
U(0
,1)
a=0.943
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=5.657
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
C1[F(x),G(y)]
U(0
,1)
a=3.71
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
C1[F(x),G(y)]
U(0
,1)
a=99558.37
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 17
C1[F(x),G(y)]
U(0
,1)
a=7.782
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
C1[F(x),G(y)]
U(0
,1)
a=0.86
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
C1[F(x),G(y)]
U(0
,1)
a=0.271
Grafica 5-44.: Metodo grafico I aplicado las copulas resultantes por maxima Verosimili-
tud, Copula Frank con τ = 0.5
5.3 Simulacion Copula Frank 95
De manera similar, se muestra a continuacion el resultado luego de aplicar el metodo
grafico II para las copulas resultantes del metodo de Genest y Rivest y maxima
verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.00.0
0.4
0.8
Family 15
Kc[C(F(x),G(y))]
U(0
,1)
0.4 0.5 0.6 0.7 0.8 0.9 1.0
0.0
0.4
0.8
Family 18
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-45.: Metodo grafico II aplicado las copulas resultantes por Genest y Rivest,
Copula Frank con τ = 0.5
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-46.: Metodo grafico II aplicado las copulas resultantes por maxima verosimili-
tud, Copula Frank con τ = 0.5
Se realiza el mismo procedimiento con el metodo grafico III, los resultados se muestran
a continuacion:
96 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.964
0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=3.964
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.982
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.964
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.321
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.482
0.4 0.5 0.6 0.7 0.8 0.9 1.0
0.0
0.4
0.8
Family 18
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=2.643
Grafica 5-47.: Metodo grafico III aplicado las copulas resultantes por Genest y Rivest,
Copula Frank con τ = 0.5
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=1.019
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.943
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=5.657
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=3.71
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=99558.37
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.86
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
Em
pir
ical d.f.
a=0.271
Grafica 5-48.: Metodo grafico III aplicado las copulas resultantes por maxima verosimi-
litud, Copula Frank con τ = 0.5
4. Finalmente, se seleccionan las copulas que mejor se ajustan en cada metodo y se
aplica la prueba de Kolmogorov-Smirnov en cada caso. Los resultados se muestran
en las siguientes tablas:
5.3 Simulacion Copula Frank 97
Valores P para el metodo grafico I: Luego de aplicar el metodo grafico I, se
seleccionan entonces, por el metodo de Genest y Rivest, a las copulas 1, 5, 12 y 14.
Por el metodo de maxima verosimilitud se decide calcular el valor-p para las copulas
1, 3, 5, 13, 16, 17 y 20. Los resultados se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.3549054 0.5345831
3 • 0.3199512
4 (Gumbel) • •5 (Frank) 0.3294918 0.8747140
12 0.6506905 •13 • 0.9310300
14 0.7899398 •16 • 0.5477651
17 • 0.9326512
20 • 0.2155466
Tabla 5-31.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Frank con
τ = 0.5
Valores P para el metodo grafico II: En este caso, se seleccionan, por el metodo
de Genest y Rivest, a las copulas 1, 4, 5, 12, 14 y 15. Por el metodo de maxima
verosimilitud se decide calcular el valor-p para las copulas 1, 3, 5, 13, 16, 19 y 20.
Los resultados se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.363622289 0.07799941
3 • 0.04318256
4 (Gumbel) 0.330857131 •5 (Frank) 0.008222851 0.78512229
12 0.459220789 •13 • 0.44299687
14 0.410221726 •15 0.180872201 •16 • 0.07171114
19 • 0.03941975
20 • 0.01085491
Tabla 5-32.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Frank
con τ = 0.5
98 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Valores P para el metodo grafico III: En este caso, se seleccionan, por el metodo
de Genest y Rivest, las copulas 1, 4, 5, 12 y 14. Por el metodo de maxima verosimilitud
se decide calcular el valor-p para las copulas 1, 3, 5, 13, 16 y 20. Los resultados se
muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.72116247 0.3952983
3 • 0.2923143
4 (Gumbel) 0.72116247 •5 (Frank) 0.09956185 0.9876983
12 0.89956940 •13 • 0.8474885
14 0.78704428 •16 • 0.3952983
19 • 0.2485482
20 • 0.1211884
Tabla 5-33.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Frank
con τ = 0.5
Cuando los datos son generados con la copula Frank con τ = 0.5 y el parametro de
dependencia se estima con el metodo de Genest y Rivest se obtiene como resultado con el
metodo grafico I que las copulas 1 (Clayton), 5 (Frank), 12 y 14 presentan un buen ajuste
en las graficas y este resultado se puede confirmar en los valores-P. En este caso, las copulas
que tienen los valores-P mas altos son la 12 y 14, sin embargo, el metodo incluye como
posible candidata a la copula de donde provienen los datos. Cuando se estima el parametro
por maxima verosimilitud, el metodo grafico I proporciona muchos posibles candidatos
para modelar los datos, entre estos modelos esta la copula 5 de donde provienen los datos,
la copula 13 y 17 que tienen los valores-P mas altos.
Usando el metodo grafico II, se escogen las copulas 1 (Clayton), 12 y 14 pues son las
que presentan el mejor ajuste graficamente y sus valores-P son los mas altos cuando se
estima el parametro de dependencia por Genest y Rivest. Cuando se estima el parametro
de dependencia por maxima verosimilitud, se escogen las copulas 5 (Frank) y 13 como
posibles candidatas para representar los datos pues son las que presentan el mejor ajuste
en las graficas presentadas y valores-P mas altos, en este caso el metodo acierta y entre los
modelos seleccionados se incluye la copula de la que provienen los datos, ademas es la que
presenta el valor-P mas alto.
Usando el metodo grafico III, se escogen las copulas 1 (Clayton), 4 (Gumbel), 12 y 14 pues
son las que presentan el mejor ajuste graficamente y sus valores-P son los mas alto cuando
se estima el parametro de dependencia con Genest y Rivest. Cuando se estima el parametro
de dependencia por maxima verosimilitud, se escogen las copulas 5 (Frank) y 13, pues son
5.3 Simulacion Copula Frank 99
las que presentan los valores P mas altos y el mejor ajuste en las graficas presentadas, en
este caso el metodo acierta e incluye dentro de los posibles modelos para modelar los datos
a la copula de la que fueron simulados.
5.3.3. Copula Frank Usando τ = 0.8
Para esta familia copula, se tiene que con τ = 0.8, el verdadero valor del parametro es
α = 18.19154
1. En primer lugar se realiza la estimacion del parametro de dependencia usando Genest
y Rivest y el metodo de maxima verosimilitud (EMV), los resultados se muestran en
la siguiente tabla:
100 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Familia Genest y Rivest α1 Valido EMV α2 Valido
1 (Clayton) 8.209424 Si 3.353893 Si
2 10.20942 Si • −3 • − 0.9971143 Si
4 (Gumbel) 5.104712 Si 0.86 No
5 (Frank) 8.209424 Si 18.38902 Si
6 • − 0.86 No
7 • − • −8 -2.832244 No • −9 • − -24.42065 No
10 • − -0.7002993 No
11 • − • −12 3.403141 Si 0.86 No
13 • − 10.79054 Si
14 4.604712 Si 0.86 No
15 5.604712 Si • −16 • − 108506.8 Si
17 • − 26.29929 Si
18 6.806283 Si • −19 • − 0.86 Si
20 • − 0.86 Si
Tabla 5-34.: Estimacion de α para la copula Frank, τ = 0.8
2. Por los resultados dados en la tabla anterior, se escogen entonces por el metodo de
Genest y Rivest las copulas 1, 2, 4, 5, 12, 14, 15 y 18. Por el metodo de maxima
verosimilitud se escogen las copulas 1, 3, 5, 13, 16, 17, 19 y 20.
3. A continuacion se aplican los metodos graficos I, II y III para cada una de las copulas
resultantes del proceso anterior usando la estimacion de Genest y Rivest y el metodo
de maxima verosimilitud.
5.3 Simulacion Copula Frank 101
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=8.209
0.0 0.5 1.0 1.5 2.0
0.0
0.4
0.8
Family 4
C1[F(x),G(y)]
U(0
,1)
a=5.105
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=8.209
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
C1[F(x),G(y)]
U(0
,1)
a=3.403
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
C1[F(x),G(y)]
U(0
,1)
a=4.605
Grafica 5-49.: Metodo grafico I aplicado las copulas resultantes por Genest y Rivest,
Copula Frank con τ = 0.8
En la grafica 5-49 se muestra el resultado del metodo grafico I aplicado a las copulas
seleccionadas por el metodo de Genest y Rivest, en este caso, el metodo no arrojo
un resultado para las copulas 2, 15 y 18 pues sus primeras derivadas no tienen forma
cerrada y el metodo grafico I hace uso de dichas derivadas. A continuacion se muestra
el resultado para las copulas seleccionadas por el metodo de maxima verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
C1[F(x),G(y)]
U(0
,1)
a=3.354
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
C1[F(x),G(y)]
U(0
,1)
a=0.997
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
C1[F(x),G(y)]
U(0
,1)
a=18.389
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
C1[F(x),G(y)]
U(0
,1)
a=10.791
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
C1[F(x),G(y)]
U(0
,1)
a=108506.8
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 17
C1[F(x),G(y)]
U(0
,1)
a=26.299
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
C1[F(x),G(y)]
U(0
,1)
a=0.86
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
C1[F(x),G(y)]
U(0
,1)
a=0.86
Grafica 5-50.: Metodo grafico I aplicado las copulas resultantes por maxima Verosimili-
tud, Copula Frank con τ = 0.8
102 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
De manera similar, se muestra a continuacion el resultado luego de aplicar el metodo
grafico II para las copulas resultantes del metodo de Genest y Rivest y maxima
verosimilitud:
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 15
Kc[C(F(x),G(y))]
U(0
,1)
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 18
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-51.: Metodo grafico II aplicado las copulas resultantes por Genest y Rivest,
Copula Frank con τ = 0.8
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 19
Kc[C(F(x),G(y))]
U(0
,1)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
U(0
,1)
Grafica 5-52.: Metodo grafico II aplicado las copulas resultantes por maxima verosimili-
tud, Copula Frank con τ = 0.8
Se realiza el mismo procedimiento con el metodo grafico III, los resultados se muestran
a continuacion:
5.3 Simulacion Copula Frank 103
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=8.209
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 2
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=10.209
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 4
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=5.105
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=8.209
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 12
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=3.403
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 14
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=4.605
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 15
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=5.605
0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 18
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=6.806
Grafica 5-53.: Metodo grafico III aplicado las copulas resultantes por Genest y Rivest,
Copula Frank con τ = 0.8
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 1
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=3.354
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 3
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.997
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 5
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=18.389
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 13
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=10.791
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 16
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=108506.8
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.4
0.8
Family 20
Kc[C(F(x),G(y))]
Em
pir
ica
l d
.f.
a=0.86
Grafica 5-54.: Metodo grafico III aplicado las copulas resultantes por maxima verosimi-
litud, Copula Frank con τ = 0.8
4. Finalmente, se seleccionan las copulas que mejor se ajustan en cada metodo y se
aplica la prueba de Kolmogorov-Smirnov en cada caso. Los resultados se muestran
en las siguientes tablas:
104 5 Simulacion de los Metodos Graficos de Bondad de Ajuste
Valores P para el metodo grafico I: Luego de aplicar el metodo grafico I, se
seleccionan entonces, por el metodo de Genest y Rivest, a las copulas 1, 5, 12 y 14.
Por el metodo de maxima verosimilitud se decide calcular el valor-p para las copulas
5, 13 y 17. Los resultados se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.08495030 •5 (Frank) 1.847994e-05 0.9594565
12 0.1803805 •13 • 0.2943807
14 0.4902627 •17 • 0.9899398
Tabla 5-35.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico I, Copula Frank con
τ = 0.8
Valores P para el metodo grafico II: En este caso, se seleccionan, por el metodo
de Genest y Rivest, a las copulas 1, 4, 5, 12, 14, 15 y 18. Por el metodo de maxima
verosimilitud se decide calcular el valor-p para las copulas 1, 5 y 13. Los resultados
se muestran a continuacion:
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.8619852 0.2954175
2 0.006325107 •4 (Gumbel) 0.9646228 •5 (Frank) 0.4458474 0.9999370
12 0.8645143 •13 • 0.8315925
14 0.9320884 •15 0.9849018 •18 4.743733e-06 •
Tabla 5-36.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico II, Copula Frank
con τ = 0.8
Valores P para el metodo grafico III: En este caso, se seleccionan, por el metodo
de Genest y Rivest, las copulas 1, 2, 4, 5, 12, 14, 15 y 18. Por el metodo de maxima
verosimilitud se decide calcular el valor-p para las copulas 1, 5 y 13. Los resultados
se muestran a continuacion:
5.3 Simulacion Copula Frank 105
Familia Valor-P Genest y Rivest Valor-P Max-Verosimilitud
1 (Clayton) 0.987698269 0.7211625
2 0.121188414 •4 (Gumbel) 0.999266985 •5 (Frank) 0.847488454 0.999999
12 0.996255192 •13 • 0.9876983
14 0.996255192 •15 0.999927214 •18 0.003150525 •
Tabla 5-37.: Prueba de Kolmogorov-Smirnov para el Metodo Grafico III, Copula Frank
con τ = 0.8
Cuando los datos son generados con la copula Frank con τ = 0.8, se obtiene como resultado
con el metodo grafico I que las copulas 12 y 14 presentan un buen ajuste en las graficas y este
resultado se puede confirmar en los valores-P, en este caso el metodo falla y no selecciona
ni incluye entre los posibles modelos a la copula Frank cuando se estima el parametro de
dependencia con el metodo de Genet y Rivest. Cuando se estima el parametro por maxima
verosimilitud, el metodo grafico I proporciona como posibles modelos para los datos a las
copulas 5 (Frank) y 17, que presentan un buen ajuste de forma grafica y teorica, pues
tienen los valores-P mas altos.
Usando el metodo grafico II, cuando se estima el parametro de dependencia por el metodo
de Genest y Rivest se escogen las copulas 1 (Clayton), 4, 5, 12, 14 15 pues son las que
presentan el mejor ajuste graficamente y sus valores-P son los mas altos. Cuando se estima
el parametro de dependencia por maxima verosimilitud, se escogen las copulas 5 (Frank) y
13 como posibles candidatas para representar los datos pues son las que presentan el mejor
ajuste en las graficas presentadas y valores-P mas altos, en este caso el metodo acierta y
entre los modelos seleccionados se incluye la copula de la que provienen los datos, ademas
es la que presenta el valor-P mas alto.
Usando el metodo grafico III, cuando se estima el parametro de dependencia con el metodo
de Genest y Rivest, el metodo grafico I proporciona una variedad de posibles modelos, entre
los que se encuentra la copula 1 (Clayton), 2, 4 (Gumbel), 5, 12, 14 y 15 pues son las que
presentan el mejor ajuste graficamente y sus valores-P son altos. Cuando se estima el
parametro de dependencia por maxima verosimilitud, se escogen las copulas 1(Clayton), 5
(Frank) y 13, pues son las que presentan los valores P mas altos y el mejor ajuste en las
graficas presentadas, en este caso el metodo acierta e incluye dentro de los posibles modelos
para modelar los datos a la copula de la que fueron simulados.
6. Pruebas de Bondad de Ajuste de
Vuong y Clarke
Para estudiar la estructura de dependencia de datos bivariados (multivariados), es necesario
inicialmente resolver dos problemas. El primero es elegir una familia apropiada de copulas,
es decir validar la hipotesis H0 : C ∈ ζ para alguna clase ζ, donde ζ es el conjunto de
familias que se quieren probar, por ejemplo ζ = Gauss, Student, Clayton,Gumbel, . . . ,el segundo es el problema de estimar el parametro de dependencia θ de la clase de copula
elegida C = Cθ : θ ∈ Θ, donde Θ es el rango de todos los posibles valores de θ (Belgo-
rodski, 2010). Hay muchos procedimientos de pruebas de bondad de ajuste para copulas,
uno de ellos es el expuesto en el capıtulo anterior, donde se estimo el parametro de de-
pendencia de la copula usando los metodos de Genest y Rivest y maxima verosimilitud.
Tambien se pueden usar otros metodos propuestos por Genest (2009). En algunas pruebas
de bondad de ajuste, (como las vistas en el capıtulo anterior) y en Genest (2009) puede
pasar que no se rechaza la hipotesis nula para mas de una familia de copulas o que por el
contrario la hipotesis nula se rechaza para todas las familias copula de interes (Belgorodski,
2010). En el primer caso, el investigador podrıa hacer un analisis subjetivo y decidir cual
de los modelos copula seleccionadas es mas adecuado. En el segundo caso, uno no puede
tomar ninguna decision (Belgorodski, 2010). En esta seccion se presenta una metodologıa
alternativa para pruebas de bondad de ajuste que son las pruebas de Vuong y Clarke. Estos
metodos fueron desarrollados para la comparacion de modelos no anidados.
6.1. Prueba de Vuong
La prueba de Vuong, como su nombre lo indica fue propuesta por Vuong (1989), esta prueba
compara dos modelos de regresion los cuales no deben ser anidados y esta basada en el
criterio de informacion de Kullback-Leibler (KLIC) (Kullback, 1951). KLIC es una medida
de distancia entre dos modelos estadısticos (Belgorodski, 2010). Considere un conjunto de
datos de tamano n que consiste de una variable dependiente Yi y un posible conjunto de
variables explicatorias xi, tenemos que:
KLIC := E0[log h0(Yi|xi)]− E0[log f(Yi|xi, β)] (6-1)
donde h0(.) es la densidad real (desconocida) de Yi dado xi, i = 1, . . . , n y E0 es el valor
108 6 Pruebas de Bondad de Ajuste de Vuong y Clarke
esperado del modelo real dado. f(.) es la densidad condicional del modelo ajustado con
parametro estimados β. En esta prueba se elige el modelo que tenga el valor del KLIC
mas pequeno. Por ejemplo, para dos modelos con densidades condicionales f1(Yi|xi, β1) y
f2(Yi|xi, β2) se comparan sus valores del KLIC. Si el modelo 1 es mejor que el modelo 2,
su estadıstico KLIC es mas pequeno, ası KLIC1 < KLIC2. En terminos de la ecuacion
anterior, se tiene que:
E0[log h0(Yi|xi)]− E0[log f1(Yi|xi, β1)] < E0[log h0(Yi|xi)]− E0[log f2(Yi|xi, β2)] (6-2)
esta expresion se reduce a:
E0
[log
(f1(Yi|xi, β1)
f2(Yi|xi, β2)
)]> 0 (6-3)
En otras palabras, el modelo 1 se prefiere sobre el modelo 2 si los valores de su log-
verosimilitud son significativamente mas grandes (Belgorodski, 2010). En Vuong (1989) se
propone el siguiente estadıstico
mi := log
(f1(Yi|xi, β1)
f2(Yi|xi, β2)
)i = 1, . . . , n (6-4)
De esta manera, m := (m1, . . . ,mn)t es un vector aleatorio. En este caso, si h(.) es la
funcion de masa real, entonces el valor esperado de m, esta dado por (Belgorodski, 2010):
E0 [m] := µm0 = (µm1 , . . . , µmn )t (6-5)
Si ambos modelos estan muy cercanos al modelo real que se esta probando h(.), entonces
se cumple que µm0 = 0, de esta manera, se formulan las hipotesis (Belgorodski, 2010):
H0 : µm0 = 0 vs H1 : µm0 6= 0 (6-6)
Vuong (1989) define el estadıstico v, basado en m, como se muestra a continuacion:
v =
√n(
1n
∑ni=1mi
)√1n
∑ni=1 (mi − m)2
(6-7)
con m := 1n
∑ni=1mi, y demuestra que bajo H0, v
D→ N(0, 1). De esta manera, a un nivel de
significancia α, se rechaza H0 si |v| ≥ z1−α2, donde z1−α
2es el cuantil 1− α
2de la distribucion
normal estandar.
En esta prueba, se prefiere al modelo 1 sobre el modelo 2 si v ≥ z1−α2, esto es, valores
altos de v indican que KLIC del modelo 1 mas pequeno comparado con el modelo 2. De
manera similar, la prueba elige al modelo 2, si v ≤ z1−α2, ambos modelos son equivalentes
6.1 Prueba de Vuong 109
si −z1−α2≤ v ≤ z1−α
2. La prueba de Vuong no es una prueba exacta, dado que el estadısti-
co pueba se distribuye como una normal estandar solo de forma asintotica (Belgorodski
(2010)). El estadıstico de Vuong es sensible al numero de coeficientes estimados en ambos
modelos, pues se basa en los valores individuales del log-verosimilitud y no incorpora en
el calculo el numero de parametros del modelo. Para mejorar esto Vuong (1989), sugiere
mejorar su prueba incluyendo un factor de correccion que tiene en cuenta el numero de
parametros estimados en el modelo, llamado, factor de correccion de Schwarz:
p1
2log n− p2
2log n, (6-8)
donde p1 y p2 corresponden al numero de parametros en el modelo 1 y 2 respectivamente
y n es el numero de observaciones. Ası, el estadıstico ajustado de Vuong con la correccion
de Schwarz esta definido por:
v :=
√n[(
1n
∑ni=1mi
)−(p12
log n− p22
log n)]√
1n
∑ni=1 (mi − m)2
(6-9)
Note que, la correccion de la funcion individual log-verosimil del modelo 1 por el terminop12
log n y del modelo 2 por el termino p22
log n, dada en la ecuacion anterior, produce un
estadıstico de forma similar al de la ecuacion 6-7:
v :=
√n(
1n
∑ni=1 mi
)√1n
∑ni=1 (mi − ¯m)
2(6-10)
con mi = mi−(p12n
log n− p22n
log n)
=[log f1
(Yi|xi, β1
)− p1
2log n
]−[log f2
(Yi|xi, β2
)− p2
2log n
].
El valor P de la prueba se define como el nivel de significancia (α) mas pequeno con el cual
la prueba rechaza la hipotesis nula, en la prueba de Vuong, se calcula como:
|v| = z1−α2
(6-11)
Sea Φ(.) la funcion de distribucion de la normal estandar, aplicando Φ(.) a ambos lados de
la igualdad anterior y usando la simetrıa de Φ(.), tenemos que (Belgorodski, 2010):
Φ (|v|) = 1− α2
⇒ α2
= 1− Φ (|v|)⇒ α = 2 (1− Φ (|v|))⇒ α = 2Φ (−|v|)
(6-12)
Ası, de esta ultima expresion, tenemos que el valor p de la prueba de Vuong es:
p = 2Φ(−|v|) (6-13)
110 6 Pruebas de Bondad de Ajuste de Vuong y Clarke
6.2. Prueba de Clarke
Como en la prueba de Vuong, el prueba de Clarke esta basada en el criterio de informacion
de Kullback-Leibler y compara si la funcion log-verosimil de un modelo es significativa-
mente mas grande que la funcion log-verosimil de otro modelo. Esta prueba fue propuesta
por Clarke (2007). En la hipotesis nula de esta prueba se supone que los modelos son
equivalentes, formulada de la siguiente manera:
H0 : P
(log
(f1(Yi|xi, β1
f2(Yi|xi, β2)
)> 0
)= 0.5 (6-14)
Esta ecuacion significa que las funciones log-verosimiles estan igualmente distribuidos al-
rededor del cero bajo la hipotesis nula, es decir, la mitad de las observaciones de la razon
del log-verosimilitud podra ser mas grande que cero y la otra mitad podrıa ser menor que
cero (Belgorodski (2010)). Se define di, i = 1, . . . , n como:
di = log f1
(Yi|xi, β1
)− log f2
(Yi|xi, β2
)(6-15)
y se define el estadıstico como (Belgorodski, 2010):
B =n∑i=1
I(0,∞)(di) (6-16)
donde I(.)es una funcion indicadora y B corresponde al numero de diferencias positivas (di)
y puede ser interpretado como una variable aleatoria binomial con parametro n y p = 0.5
bajo la hipotesis nula, es decir, B ∼ Binom(n, p).
El modelo 1 caracterizado por el vector de parametros β1 es equivalente al modelo 2,
caracterizado por el vector de parametros β2, si B es igual al valor esperado de np =
n/2 bajo la hipotesis nula (Belgorodski, 2010). Se puede asumir la equivalencia de ambos
modelos a un nivel de significancia α si (Belgorodski, 2010):
B ∈(n
2− εα,
n
2+ εα
)(6-17)
para εα pequeno. Denotemos como cα+ := n2
+εα y cα− := n2−εα. Ası, la expresion anterior,
tiene la forma:
B ∈ (cα−, cα+) (6-18)
Si el modelo 1 es mejor que el modelo 2, B sera significativamente mas grande que su valor
esperado(n2
)bajo la hipotesis nula. Generalmente, esto dificulta la construccion de una
prueba de dos colas para el problema 6-14. En este caso, el uso de pruebas unilaterales
tiene mas sentido en cada situacion. De esta forma, dividimos el problema de la prueba
bilateral
6.2 Prueba de Clarke 111
H0 : B =n
2vs H1 : B 6= n
2
en dos casos: una prueba de cola superior
H0 : B =n
2vs H1 : B >
n
2(6-19)
y una prueba de cola inferior
H0 : B =n
2vs H1 : B <
n
2(6-20)
Ahora, se definen las regiones de rechazo para las pruebas 6-19 y 6-20 respectivamente. La
prueba de cola superior tiene un nivel de significancia α, si la probabilidad del error tipo I
no es mas grande que α, es decir,
P (B ≥ cα+) ≤ α (6-21)
Usando, la distribucion binomial, tenemos que:
P (B ≤ a) =a∑i=1
(n
i
)pi (1− p)n−i (6-22)
De esta manera, para B ∼ Binom(n, p), la expresion 6-21 se puede escribir como:
P (B ≥ cα+) =n∑
c=cα+
(n
c
)0.5n ≤ α (6-23)
En la prueba de cola superior, se rechaza la hipotesis nula a un nivel de significancia del
α, si B ≥ cα+ donde cα+ es el entero mas pequeno de tal forma que la expresion 6-22 se
cumple.
Para determinar el valor de cα+ usamos la igualdad dada en 6-21:
P (B ≥ cα+) = α
⇔ 1− P (B < cα+) = α
⇔ P (B < cα+) = 1− α⇔ P (B ≤ cα+ − 1) = 1− α⇔ B (cα+ − 1) = 1− α⇔ cα+ − 1 = zbin (1− α)
⇔ cα+ = 1 + zbin (1− α)
(6-24)
Donde B denota la funcion de distribucion de B ∼ Binom (n, 0.5) y zbin es su funcion
cuantil. Ası, el valor p de la prueba de cola superior esta dado por (Belgorodski, 2010):
112 6 Pruebas de Bondad de Ajuste de Vuong y Clarke
B = cα+
⇔ B = 1 + zbin (1− α)
⇔ B − 1 = zbin (1− α)
⇔ B (B − 1) = 1− α⇔ α = 1−B (B − 1)
⇔ p = 1−B (B − 1)
(6-25)
De manera similar, la prueba de cola inferior tiene un nivel de significancia α, si la proba-
bilidad del error tipo I no es mas grande que α, es decir:
P (B ≤ cα−) ≤ α (6-26)
o si
P (B ≤ cα−) =
cα−∑c=0
(n
c
)0.5n ≤ α (6-27)
De esta manera, se rechaza la hipotesis nula a un nivel de significancia α, si B ≤ cα−,
donde cα− es elegido como el entero mas pequeno tal que 6-27 se conserve.
Para determinar cα− usamos la igualdad dada en 6-26 (Belgorodski, 2010):
P (B ≤ cα−) = α
⇔ B (cα−) = α
⇔ cα− = zbin (α)
(6-28)
Finalmente, se llega a que el valor p de la prueba de cola inferior esta dado por (Belgorodski
(2010)):
B = cα−⇔ B = zbin (α)
⇔ B (B) = α
⇔ p = B (B)
(6-29)
6.3. Simulacion en R
En esta seccion, se presenta un estudio de simulacion de las pruebas de bondad de ajuste
de Voung y Clarke expuestas anteriormente implementadas en el paquete CDVine de R. Las
pruebas de Voung y Clarke comparan dos copulas ajustadas al mismo conjunto de datos,
en este caso, se considerara el conjunto de todos los posibles modelos a ser comparados
denotado por ζ : Clayton, Frank,Normal,Gumbel, Joe . Se ilustra el procedimiento
6.3 Simulacion en R 113
implementado en R, generando datos de una copula Frank usando un parametro de depen-
dencia de τ = 0.8. El proceso de simulacion se realizara siguiendo los siguientes pasos:
1. Estimar el parametro de dependencia θi de cada copula Ci, i = 1, . . . ,m dadas en
ζ. Note que el parametro de dependencia para las copulas Normal, Gumbel, Clayton
y Frank tienen una relacion directa con el τ de Kendall, de esta manera, se pueden
estimar usando dicha relacion. En el caso de la copula Joe, se usara el metodo de
maxima verosimilitud.
2. Para cada i = 1, . . . ,m se compara la copula Cθi con el resto de las copulas dadas en
ζ.
3. Se calculan los puntajes de acuerdo al resultado obtenido en cada prueba, en este
caso, se denota (I) al modelo que se esta comparando, por ejemplo, la copula Frank
y (II) es una de las otras copulas dadas en ζ, Normal, Gumbel, Clayton o Joe. Los
puntajes se asignan de la siguiente manera:
Si la prueba elige el modelo (I), es decir, (I)>(II), se asigna un valor de 1. Si la prueba
elige al modelo (II), (I)<(II), se asigna un valor de -1 y si la prueba no elige ninguno
de los dos modelos (I)=(II), se asigna un valor de cero.
El puntaje asociado a cada copula resulta de sumar todos los valores obtenidos segun
los resultados de las pruebas.
4. Se toma la decision de acuerdo a los puntajes obtenidos, la copula con el puntaje mas
alto es la mas adecuada entre todas las copulas consideradas aplicando las pruebas
de Voung y Clarke.
Como se menciono anteriormente, en este caso, se ilustrara el proceso simulando 300 datos
de una copula Frank, usando τ = 0.8. Se contrasta las hipotesis H0 : (I) = (II). El
resultado (I) > (II) significa que la prueba selecciono el modelo (I), es decir, este modelo
es mas adeucado que el modelo (II) para los datos simulados y (I) < (II) indica que el
modelo (II) es mejor. Los resultados se muestran a continuacion:
Frank (II) Gumbel (II) Normal (II) Joe (II) Clayton (II) Puntaje
Frank (I) (I) > (II) (I) > (II) (I) > (II) (I) > (II) 4
Gumbel (I) (I) < (II) (I) = (II) (I) > (II) (I) > (II) 1
Normal (I) (I) < (II) (I) = (II) (I) > (II) (I) > (II) 1
Joe (I) (I) < (II) (I) < (II) (I) < (II) (I) = (II) -3
Clayton (I) (I) < (II) (I) < (II) (I) < (II) (I) = (II) -3
Tabla 6-1.: Resultados prueba de Voung
114 6 Pruebas de Bondad de Ajuste de Vuong y Clarke
Frank (II) Gumbel (II) Normal (II) Joe (II) Clayton (II) Puntaje
Frank (I) (I) > (II) (I) > (II) (I) > (II) (I) > (II) 4
Gumbel (I) (I) < (II) (I) = (II) (I) > (II) (I) > (II) 1
Normal (I) (I) < (II) (I) = (II) (I) > (II) (I) > (II) 1
Joe (I) (I) < (II) (I) < (II) (I) < (II) (I) = (II) -3
Clayton (I) (I) < (II) (I) < (II) (I) < (II) (I) = (II) -3
Tabla 6-2.: Resultados prueba de Clarke
Segun los resultados dados en las tablas 6.3 y 6.3, las pruebas de Vuong y Clarke logran
identificar a la copula Frank, de donde se simularon los datos, como la copula mas adecua-
da, cuando esta se compara con el resto, las pruebas seleccionan dicha copula, logrando
el puntaje mas alto. Estos resultados, se obtuvieron luego de realizar el proceso de 4 pa-
sos descrito anteriormente (ver codigos de las pruebas en el anexo). Usando la instruccion
BiCopVuongClarke del paquete CDVine de R, se lleva al mismo resultado, dicha instruc-
cion arroja solo los puntajes obtenidos por cada copula, no da informacion acerca de los
estadısticos de prueba y valores P, pero ofrece una gran variedad de modelos que se pueden
contrastar a los datos simulados. los resultados obtenidos con esta instruccion, se mestran
a continuacion:
Prueba Frank Gumbel Normal Joe Clayton
Voung 4 1 1 -3 -3
Clarke 4 1 1 -3 -3
Tabla 6-3.: Resultados pruebas de Voung y Clarke usando el paquete CDVine de R
Ahora, para ver como se comportan las pruebas de Voung y Clarke para diferentes valores de
τ , se aplicaran dichas pruebas implementadas en R en la instruccion BiCopVuongClarke
para valores de τ de 0.2, 0.5 y 0.8. Ademas se simulan los datos de las copulas Frank,
Clayton, Gumbel y Joe y se compara cada una con las 10 primeras copulas del paquete
CDVine, usando n = 300 datos.
6.3 Simulacion en R 115
6.3.1. Prueba de Vuong y Clarke: Datos simulados de la copula
Frank
En este caso, los resultados son:
Prueba Normal t-Student Clayton Gumbel Frank Joe BB1 BB6 BB7 BB8
Voung -1 -1 -4 0 4 -1 0 0 -5 8
Clarke -7 -3 -9 4 4 -3 4 4 -3 9
Tabla 6-4.: Resultados pruebas de Voung y Clarke Simulando datos de la copula Frank
con τ = 0.2
Prueba Normal t-Student Clayton Gumbel Frank Joe BB1 BB6 BB7 BB8
Voung 1 3 -5 0 8 -7 0 -2 -5 7
Clarke 0 5 -8 0 9 -8 2 -2 -5 7
Tabla 6-5.: Resultados pruebas de Voung y Clarke Simulando datos de la copula Frank
con τ = 0.5
Prueba Normal t-Student Clayton Gumbel Frank Joe BB1 BB6 BB7 BB8
Voung 5 6 -4 -1 9 -8 0 -3 -3 -1
Clarke 5 8 -5 1 7 -9 4 -1 -5 -5
Tabla 6-6.: Resultados pruebas de Voung y Clarke Simulando datos de la copula Frank
con τ = 0.8
Con τ = 0.2 las pruebas de Vuong y Clarke no logran identificar la copula de la que
provienen los datos, en este caso, la prueba de Vuong identifica a la copula t, BB1 y BB7
como las adecuadas o posibles modelos para los datos, mientras que la prueba de Clarke
selecciona a la copula BB7 como candidata. Con τ = 0.5, la prueba de Vuong selecciona a
la copula Clayton como la mas adecuada para modelar los datos, mientras que la prueba de
Clarke no logra identificar la copula de la que provienen los datos y en este caso selecciona
a la copula BB1. Cuando τ = 0.8, la prueba de Voung le sigue dando el puntaje mas alto a
la copula Clayton, mientras que la prueba de Clarke selecciona a la copula Clayton y BB1
como posibles modelos para modelar los datos. En general, la prueba de Vuong proporciona
mejores resultados.
116 6 Pruebas de Bondad de Ajuste de Vuong y Clarke
6.3.2. Prueba de Vuong y Clarke: Datos simulados de la copula
Clayton
En este caso, los resultados son:
Prueba Normal t-Student Clayton Gumbel Frank Joe BB1 BB6 BB7 BB8
Voung 4 5 3 -2 -4 -7 5 -4 5 -5
Clarke -5 8 1 0 -2 -9 5 0 8 -6
Tabla 6-7.: Resultados pruebas de Voung y Clarke Simulando datos de la copula Clayton
con τ = 0.2
Prueba Normal t-Student Clayton Gumbel Frank Joe BB1 BB6 BB7 BB8
Voung 0 0 8 -5 1 -9 7 -7 6 -1
Clarke -2 4 3 -5 6 -9 7 -7 5 -2
Tabla 6-8.: Resultados pruebas de Voung y Clarke Simulando datos de la copula Clayton
con τ = 0.5
Prueba Normal t-Student Clayton Gumbel Frank Joe BB1 BB6 BB7 BB8
Voung 0 2 8 -4 2 -9 7 -6 6 -5
Clarke -1 1 8 -3 4 -9 8 -5 4 -7
Tabla 6-9.: Resultados pruebas de Voung y Clarke Simulando datos de la copula Clayton
con τ = 0.8
Cuando los datos son simulados de la copula Frank, en general se observa que al aumentar
τ el desempeno de las pruebas tambien mejora. Con τ = 0.2 las pruebas de Vuong y Clarke
no logran identificar la copula de la que provienen los datos, en este caso, seleccionan a
la copula BB8 implementada en el paquete, como la copula mas adecuada para los datos.
Con τ = 0.5, los metodos mejoran, pues le dan los puntajes mas altos a la copula Frank,
en este caso se selecciona como la mas adecuada tanto por la prueba de Vuong como la de
Clarke. Cuando τ = 0.8, la prueba de Voung le sigue dando el puntaje mas alto a la copula
Frank, mientras que la prueba de Clarke le da el puntaje mas alto a la copula t. En este
caso, se comporta mejor, la prueba de Vuong.
6.3 Simulacion en R 117
6.3.3. Prueba de Vuong y Clarke: Datos simulados de la copula
Gumbel
En este caso, los resultados son:
Prueba Normal t-Student Clayton Gumbel Frank Joe BB1 BB6 BB7 BB8
Voung 1 1 -8 1 1 0 1 1 1 1
Clarke -5 -2 -9 6 2 -4 6 3 0 3
Tabla 6-10.: Resultados pruebas de Voung y Clarke Simulando datos de la copula Gumbel
con τ = 0.2
Prueba Normal t-Student Clayton Gumbel Frank Joe BB1 BB6 BB7 BB8
Voung 1 1 -9 4 -2 -2 4 4 1 -2
Clarke -4 4 -9 4 4 -7 6 2 -4 4
Tabla 6-11.: Resultados pruebas de Voung y Clarke Simulando datos de la copula Gumbel
con τ = 0.5
Prueba Normal t-Student Clayton Gumbel Frank Joe BB1 BB6 BB7 BB8
Voung -1 -1 -9 7 -2 -1 7 7 -6 -1
Clarke 4 6 -9 6 -1 -3 5 4 -7 -5
Tabla 6-12.: Resultados pruebas de Voung y Clarke Simulando datos de la copula Gumbel
con τ = 0.8
Con τ = 0.2 la prueba de Vuong proporciona resultados confusos, pues selecciona como po-
sibles candidatas a la mayorıa de las copulas propuestas, entre ellas a la copula t, Normal,
Gumbel, Frank, BB1, BB7, BB7 y BB8. Mientras que la prueba de Clarke solo escoge a la
copula Gumbel y BB1 como los mas adecuados para los datos. Con τ = 0.5, los metodos
mejoran, la prueba de Vuong en este caso reduce el numero de posibles modelos, seleccio-
nando a las copulas Gumbel, BB1 y BB6, mientras que la prueba de Clarke selecciona a la
copula BB1 como el modelo adecuado para los datos. Cuando τ = 0.5 la prueba de Vuong
proporciona mejores resultados, pues dentro de las copulas seleccionadas se encuentra la
copula Gumbel, de donde se simularon los datos. Cuando τ = 0.8, nuevamente la prueba
de Voung selecciona a las copulas Gumbel, BB1 y BB6 como los mas adecuados, mientras
que la prueba de Clarke le da el puntaje mas alto a la copula t y a la copula Gumbel.
118 6 Pruebas de Bondad de Ajuste de Vuong y Clarke
6.3.4. Prueba de Vuong y Clarke: Datos simulados de la copula Joe
En este caso, los resultados son:
Prueba Normal t-Student Clayton Gumbel Frank Joe BB1 BB6 BB7 BB8
Voung -5 -5 -9 1 -5 6 -1 6 5 6
Clarke -7 -4 -9 0 -4 5 0 5 5 9
Tabla 6-13.: Resultados pruebas de Voung y Clarke Simulando datos de la copula Joe con
τ = 0.2
Prueba Normal t-Student Clayton Gumbel Frank Joe BB1 BB6 BB7 BB8
Voung -5 -5 -9 1 -5 6 -1 6 6 6
Clarke -7 0 -9 4 -5 0 4 2 4 7
Tabla 6-14.: Resultados pruebas de Voung y Clarke Simulando datos de la copula Joe con
τ = 0.5
Prueba Normal t-Student Clayton Gumbel Frank Joe BB1 BB6 BB7 BB8
Voung -6 -3 -9 4 -5 8 2 8 -2 3
Clarke -6 -3 -9 5 -2 8 3 8 -4 0
Tabla 6-15.: Resultados pruebas de Voung y Clarke Simulando datos de la copula Joe con
τ = 0.8
Con τ = 0.2 la prueba de Vuong selecciona como posibles candidatas a las copulas Joe, BB6
y BB8, en este caso ,a la prueba de Vuong incluye entre los posibles modelos a la copula de
donde se simularon los datos. Mientras que la prueba de Clarke solo escoge a la copula BB8
como los mas adecuada para los datos. Con τ = 0.5, la prueba de Vuong selecciona a las
copulas Joe, BB6, BB7 y BB8, mientras que la prueba de Clarke selecciona a la copula BB8
como el modelo adecuado para los datos. Cuando τ = 0.5 la prueba de Vuong proporciona
mejores resultados, pues dentro de las copulas seleccionadas se encuentra la copula Joe,
de donde se simularon los datos. Cuando τ = 0.8, tanto la prueba de Voung como la de
Clarke seleccionan a las copulas Joe y BB6 como las mas adecuadas. En general, la prueba
de Vuong proporciona mejores resultados en este caso.
7. Conclusiones y Trabajos Futuros
Los metodos graficos para detectar dependencia vistos en este trabajo proporcionan
una herramienta util y alternativa al grafico que tradicionalmente se usa: El grafico
de dispersion. Los graficos Chi-Plot y K-Plot tienen la ventaja de que al aumentar
el tamano de muestra, su desempeno mejora y logran detectar dependencia aun si
se tiene un parametro de dependencia de τ = 0.3, resultado que no se logra con el
grafico de dispersion, pues este no logra detectar dependencia cuando el parametro
de dependencia es bajo aunque el tamano muestral sea grande.
Las pruebas graficas de bondad de ajuste expuestas en este trabajo, sirven como
una ayuda visual al momento de identificar un posible modelo para ajustar a los
datos, en general, los metodos graficos II y III proporcionan mejores resultados que
el metodo grafico I, por ejemplo, en el caso en que los datos son simulados de la
copula Gumbel, el metodo grafico I falla cuando el parametro de dependencia es
estimado por el metodo de Genest y Rivest pues no considera a la copula Gumbel
como un buen modelo para los datos estimados, mientras que los metodos graficos II
y III si incluyen este modelo como un modelo adecuado. Cabe resaltar que en el caso
de la copula Gumbel, cuando se estima el parametro de dependencia por maxima
verosimilitud, dicha copula queda descartada. Cuando los datos son simulados de la
copula Frank, nuevamente el metodo grafico I falla y no considera a este modelo como
un modelo adecuado para los datos cuando τ = 0.8 y el parametro de dependencia
se estima por Genest y Rivest, mientras que los metodos graficos II y III consideran
a la copula Frank como un modelo adecuado para los datos simulados. En general,
los metodos II y III presentan un mejor desempeno a la hora de identificar la copula
adecuada. Como se menciono anteriormente, estos metodos proporcionan una ayuda
visual para identificar un posible o posibles modelos para los datos en una primera
etapa de seleccion, para luego aplicar pruebas teoricas a las copulas pre-seleccionadas
que ayuden a tomar una decision.
Existe una variedad de pruebas teoricas de bondad de ajuste, entre ellas se encuentran
las pruebas de Vuong y Clarke, que presentan una buena alternativa al momento de
seleccionar una copula adecuada. En general, la prueba de Vuong presenta mejores
resultados que la prueba de Clarke, pues es mas eficaz a la hora de identificar la
copula de la que provienen los datos cuando el parametro de dependencia es alto.
Cuando se tiene un parametro de dependencia bajo, los resultados de las pruebas
120 7 Conclusiones y Trabajos Futuros
de Vuong y Clarke son similares, en ambos casos, no logran identificar el modelo de
donde provienen los datos. Ademas, tienen la ventaja de que estan implementadas
en R y se identifica de manera sencilla al modelo o posibles modelos para los datos.
Como trabajo futuro, crear una librerıa en R que incorpore los metodos graficos de
bondad de ajuste presentados en este trabajo.
A. Tablas Primeras y segundas
derivadas de las familias copulas
Familia C1 (u, v) = ∂∂uC (u, v)
1 u(−1−a)
(−1+u−a+v−a)(1+a)a
2 No tiene forma cerrada
3 v+av(−1+v)(−1+a(−1+u)(−1+v))2
4 (− log(u))−1+a((− log(u))a+(− log(v))a)−1+a−1
exp((−log(u))a+(− log(v))a)1a u
5 ea(−1+eav)−ea+e(a+au)−e(au+av)+ea+av
6 −[1− u(−1+a)−1 + (1− v)a(1− u)a + (1− v)a − (1− u)a(1− v)a(−1+ 1a )]
7 No tiene forma cerrada
8 No tiene forma cerrada
9 v−av log(v)expa log(u) log(v)
10 − v(−2+va)
(2−va+ua(−1+va))(1+a)a
11 No tiene forma cerrada
12[−1+ 1
u ](−1+a)[(−1+ 1
u )a+(−1+ 1
v )a](−1+ 1
a)
u2[1+(−1+ 1u )a+(−1+ 1
v )a
1a ]2
131u exp1− [−1 + (1− log(u))a + (1− log(v))a]
1a ∗
[1− log(u)](−1+a)[−1 + (1− log(u))a + (1− log(v))a](−1+1a )
14u−(1+a)
a [−1 + u−1a ](−1+a)[(−1 + u−
1a )a + (−1 + v−
1a )a](−1+
1a )∗
[1 + ((−1 + u−1a )a + (−1 + v−
1a )a)
1a ](−1−a)
15 No tiene forma cerrada
1612
(1 + a
u2 +[(
1 + au2
) (−1 + u− a
(−1 + 1
u + 1v
)+ v)])∗
12
√4a+
(−1 + u− a
(−1 + 1
u + 1v
)+ v)2
17[1+u](−1−a)[−1+(1+v)−a]
[−1+2−a][1+
(−1+(1+u)−a)(−1+(1+v)−a)
−1+2−a
] (1+a)a
18 No tiene forma cerrada
19 a2eau(
−ea+eau+e
av
)u2 log
[−ea+e
au+e
av
]220 e
1ua u(−1−a)(
−e+e1ua +e
1va)log[−e+e
1ua +e
1va] (1+a)
a
Tabla A-1.: Primera derivada de las familias copulas
122 A Tablas Primeras y segundas derivadas de las familias copulas
Familia C12 (u, v) = ∂∂u
∂∂vC (u, v)
1 (1 + a)u(−1−a)v(−1−a)(−1 + 1ua + 1
va )(−2−1a )
2 No tiene forma cerrada
3−1 + a2(−1 + u+ v − uv)− a(−2 + u+ v + uv))∗
1
[−1 + a(−1 + u)(−1 + v)]3
4
[[− log(u)](−1+a)[−1 + a+ ((− log(u))a + (− log(v))a)1a ]]∗
[(− log(u))a + (− log(v))a](−2+1a )[− log(v)](−1+a)∗
1
exp(− log(u))a + (− log(v))a 1auv
5a expa(1 + u+ v)(−1 + ea)
(ea − e(a+au) + ea(u+v) − e(a+av))2
6[1− u](−1+a)[a− (−1 + (1− u)a)(−1 + (1− v)a)]∗
[(1− u)a + (1− v)a − (1− u)a(1− v)a](−2+1a )(1− v)(−1+a)
7 No tiene forma cerrada
8 No tiene forma cerrada
91− a− a log(v) + a log(u)(−1 + a log(v))
expa log(u)log(v)
10 [2− va + ua(−1 + va)](−2−1a )[4− 2va + ua(−2− (−1 + a)va)]
11 No tiene forma cerrada
12
[−1 + 1u ]a[−1 + a+ (−1 + 1
u )a + (−1 + 1v )a 1
a + a(−1 + 1u )a + (−1 + 1
v )a 1a ]∗
[(−1 + 1u )a + (−1 + 1
v )a](−2+1a )[−1 + 1
v ]a
1
(−1 + u)u[1 + (−1 + 1u )a + (−1 + 1
v )a 1a ]3(−1 + v)v
13
1
uvexp1− (−1 + (1− log(u))a + (1− log(v))a)
1a ∗
[1− log(u)](−1+a)[−1 + a+ −1 + (1− log(u))a + (1− log(v))a 1a ]∗
[−1 + (1− log(u))a + (1− log(v))a](−2+1a )[1− log(v)](−1+a)
14
[−1 + u(−1a )]a[−1 + v(−
1a )]a ∗ [(−1 + u(−
1a ))a + (−1 + v−
1a )a](−2+
1a )∗
[1 + (−1 + u(−1a ))a + (−1 + v(−
1a ))a 1
a ](−2−a)∗[−1 + a+ 2a(−1 + u(−
1a ))a + (−1 + v(−
1a ))a 1
a ]∗1
au[−1 + u1a ]v[−1 + v
1a ]
Tabla A-2.: Segunda derivada de las familias copulas
123
15 No tiene forma cerrada
162a[a2 + u2v2 + a(u2 + v2)] ∗ 1√
4a+ [−1 + u− a(−1 + 1u + 1
v ) + v]2∗
1
[u2v2(−1 + u+ v)2 + a2(u+ v − uv)2 + 2auvu2(−1 + v)− (−1 + v)v + u(1− v + v2)]
17
2a[(−1 + 2a)a(1 + u)a(1 + v)a + 2a−1 + (1 + u)a−1 + (1 + v)a]∗1
(1 + u)(1 + v)[2a − 2a(1 + u)a − 2a(1 + v)a + (1 + u)a(1 + v)a]2∗
1[1 + [−1+(1+u)(−a)][−1+(1+v)(−a)]
−1+2(−a)
] 1a
18 No tiene forma cerrada
19a3 expa
(1u + 1
v
)[2 + log(−ea + e
au + e
av )]
(−ea + eau + e
av )2u2v2 log(−ea + e
au + e
av )3
20
expu(−a) + v(−a)u(−1−a)v(−1−a)∗log(−e+ e
1ua + e
1va )(−2−
1a )[1 + a+ a log(−e+ e
1ua + e
1va )]∗
1
[−e+ e1ua + e
1va ]2
Tabla A-3.: Segunda derivada de las familias copulas
B. Codigo Metodos Graficos para
Detectar Dependencia
library(CDVine)
#Datos simulados con tau=0.3 y n=20
tau=0.3
#Copula Gaussiana
gaussiana = BiCopSim(20,1,BiCopTau2Par(1, tau))
#Copula Clayton
clayton = BiCopSim(20,3,BiCopTau2Par(3, tau))
#Copula Gumbel
gumbel = BiCopSim(20,4,BiCopTau2Par(4, tau))
#Copula Frank
frank = BiCopSim(20,5,BiCopTau2Par(5, tau))
#Copula Joe
joe = BiCopSim(20,6,BiCopTau2Par(6, tau))
#Se toman las variable u1 y u2 con parametro de dependencia 0.3
ga1 = gaussiana[,1]
ga2 = gaussiana[,2]
c1=clayton[,1]
c2=clayton[,2]
gu1=gumbel[,1]
gu2=gumbel[,2]
f1=frank[,1]
f2=frank[,2]
j1=joe[,1]
j2=joe[,2]
#Grafico de Dispersion
126 B Codigo Metodos Graficos para Detectar Dependencia
par(oma=c(1,1,3.5,1),font=2,cex=0.9)
nf <- layout(rbind(c(1,1,2,2,3,3), c(0,4,4,5,5,0)))
plot(gaussiana,xlab=’u1’,ylab=’u2’,main=’Copula Gaussiana’)
abline(lm(ga2 ga1),lty=1)
plot(clayton,xlab=’u1’,ylab=’u2’,main=’Copula Clayton’)
abline(lm(c2 c1),lty=1)
plot(gumbel,xlab=’u1’,ylab=’u2’,main=’Copula Gumbel’)
abline(lm(gu2 gu1),lty=1)
plot(frank,xlab=’u1’,ylab=’u2’,main=’Copula Frank’)
abline(lm(f2 f1),lty=1)
plot(joe,xlab=’u1’,ylab=’u2’,main=’Copula Joe’)
abline(lm(j2 j1),lty=1)
mtext(outer=T,expression(paste(n,"=",20,", ",tau,"=",0.3)),side=3)
#Grafico Chi-plot:
par(oma=c(1,1,3.5,1),font=2,cex=0.9)
nf <- layout(rbind(c(1,1,2,2,3,3), c(0,4,4,5,5,0)))
BiCopChiPlot(ga1, ga2, PLOT=TRUE, mode="NULL",main=’Copula Gaussiana’,
xlim=c(-1,1),ylim=c(-1,1))
BiCopChiPlot(c1, c2, PLOT=TRUE, mode="NULL",main=’Copula Clayton’,
xlim=c(-1,1),ylim=c(-1,1))
BiCopChiPlot(gu1, gu2, PLOT=TRUE, mode="NULL",main=’Copula Gumbel’,
xlim=c(-1,1),ylim=c(-1,1))
BiCopChiPlot(f1, f2, PLOT=TRUE, mode="NULL",main=’Copula Frank’,
xlim=c(-1,1),ylim=c(-1,1))
BiCopChiPlot(j1, j2, PLOT=TRUE, mode="NULL",main=’Copula Joe’,
xlim=c(-1,1),ylim=c(-1,1))
mtext(outer=T,expression(paste(n,"=",20,", ",tau,"=",0.3)),side=3)
#Grafico K-Plot:
127
par(oma=c(1,1,3.5,1),font=2,cex=0.9)
nf <- layout(rbind(c(1,1,2,2,3,3), c(0,4,4,5,5,0)))
BiCopKPlot(ga1, ga2, PLOT=TRUE,main=’Copula Gaussiana’)
BiCopKPlot(c1, c2, PLOT=TRUE,main=’Copula Clayton’)
BiCopKPlot(gu1, gu2, PLOT=TRUE,main=’Copula Gumbel’)
BiCopKPlot(f1, f2, PLOT=TRUE,main=’Copula Frank’)
BiCopKPlot(j1, j2, PLOT=TRUE,main=’Copula Joe’)
mtext(outer=T,expression(paste(n,"=",20,", ",tau,"=",0.3)),side=3)
C. Codigo Pruebas Graficas de Bondad
de Ajuste
#Estimacion No parametrica del parametro de dependencia de la copula Alpha (procedimiento
de Genest y Rivest):
calc.alpha<-function(ktau)
# family no. 1
a.1=(2*ktau)/(1-ktau)
if (a.1>=-1 && a.1!=0) isValid=" is valid!"
else isValid=" is not valid!"
cat("a.1=",a.1,isValid,"\n")
# family no. 2
a.2=-2/(ktau-1)
if (a.2>=1) isValid=" is valid!" else isValid=" is not valid!"
cat("a.2=",a.2,isValid,"\n")
# family no. 4
a.4=-1/(ktau-1)
if (a.4>=1) isValid=" is valid" else isValid=" is not valid"
cat("a.4=",a.4,isValid,"\n")
debye<-function(k,x)\\
t1<-k/(x^k)
t2<-function(t) t^k/(exp(t)-1)
t3<-integrate(t2,lower=0,upper=x)
t1*t3$value
f2<-function(x,ktau)
130 C Codigo Pruebas Graficas de Bondad de Ajuste
(1+(4/x)*(1-debye(1,-x))-ktau)^2
a.5=optimize(f2,interval=c(0, 1000000000),ktau)
if (a.5>=-1 && a.5!=0) isValid=" is valid!"
else isValid=" is not valid!"
cat("a.5=",a.1,isValid,"\n")
# family no. 8
a.8=-4/(-1+3*ktau)
if (a.8>=1) isValid=" is valid" else isValid=" is not valid"
cat("a.8=",a.8,isValid,"\n")
# family no. 12
a.12=2/(3*(1-ktau))
if (a.12>=1) isValid=" is valid" else isValid=" is not valid"
cat("a.12=",a.12,isValid,"\n")
# family no. 14
a.14=(1+ktau)/(2*(1-ktau))
if (a.14>=1) isValid=" is valid" else isValid=" is not valid"
cat("a.14=",a.14,isValid,"\n")
# family no. 15
a.15=(3-ktau)/(2*(1-ktau))
if (a.15>=1) isValid=" is valid" else isValid=" is not valid"
cat("a.15=",a.15,isValid,"\n")
# family no. 18
a.18=4/(3*(1-ktau))
if (a.18>=2) isValid=" is valid" else isValid=" is not valid"
cat("a.18=",a.18,isValid,"\n")
invisible(ktau)
calc.alpha(ktau=tau)
#Para la estimacion del alpha usando el procedimiento de maxima
#verosimilitud, primero debe hallarse la Funcion de densidad de la copula: c12(u,v)=d/du
d/dv C(u,v)
131
duv.1<-function(u,v,a)
(1+a)*u^(-1-a)*v^(-1-a)*(-1+u^(-a)+v^(-a))^(-2-a^(-1))
duv.3=function(u,v,a)
(-1+a^2*(-1+u+v-u*v)-a*(-2+u+v+u*v))/
(-1+a*(-1+u)*(-1+v))^3
duv.4=function(u,v,a)
((-log(u))^(-1+a)*(-1+a+((-log(u))^a+(-log(v))^a)^a^(-1))
*((-log(u))^a+(-log(v))^a)^(-2+a^(-1))*(-log(v))^(-1+a))/
(exp((-log(u))^a+(-log(v))^a)^a^(-1))*u*v
duv.5=function(u,v,a)
(a*exp(a*(1+u+v))*(-1+exp(a)))/
(exp(a)-exp(a+a*u)+exp(a*(u+v))-exp(a+a*v))^2
duv.6=function(u,v,a)
(1-u)^(-1+a)*(a-(-1+(1-u)^a)*(-1+(1-v)^a))*
((1-u)^a+(1-v)^a-(1-u)^a*(1-v)^a)^(-2+a^(-1))*(1-v)^(-1+a)
duv.9=function(u,v,a)
(1-a-a*log(v)+a*log(u)*(-1+a*log(v)))/exp(a*log(u)*log(v))
duv.10=function(u,v,a)
(2-v^a+u^a*(-1+v^a))^(-2-a^(-1))*(4-2*v^a+u^a*(-2-(-1+a)*v^a))
duv.12=function(u,v,a)
((-1+u^(-1))^a*(-1+a+((-1+u^(-1))^a+(-1+v^(-1))^a)^a^(-1)+a*
((-1+u^(-1))^a+(-1+v^(-1))^a)^a^(-1))*((-1+u^(-1))^a+
(-1+v^(-1))^a)^(-2+a^(-1))*(-1+v^(-1))^a)/
((-1+u)*u*(1+((-1+u^(-1))^a+(-1+v^(-1))^a)^a^(-1))^3*(-1+v)*v)
duv.13=function(u,v,a)
(exp(1-(-1+(1-log(u))^a+(1-log(v))^a)^a^(-1))*
(1-log(u))^(-1+a)*(-1+a+(-1+(1-log(u))^a+(1-log(v))^a)^a^(-1))*
(-1+(1-log(u))^a+(1-log(v))^a)^(-2+a^(-1))*(1-log(v))^(-1+a))/(u*v)
132 C Codigo Pruebas Graficas de Bondad de Ajuste
duv.14=function(u,v,a)
((-1+u^(-a^(-1)))^a*(-1+v^(-a^(-1)))^a*
((-1+u^(-a^(-1)))^a+(-1+v^(-a^(-1)))^a)^(-2+a^(-1))*
(1+((-1+u^(-a^(-1)))^a+(-1+v^(-a^(-1)))^a)^a^(-1))^(-2-a)*
(-1+a+2*a*((-1+u^(-a^(-1)))^a+(-1+v^(-a^(-1)))^a)^a^(-1)))/
(a*u*(-1+u^a^(-1))*v*(-1+v^a^(-1)))
duv.16=function(u,v,a)
(2*a*(a^2+u^2*v^2+a*(u^2+v^2)))/
(sqrt(4*a+(-1+u-a*(-1+u^(-1)+v^(-1))+v)^2)*(u^2*v^2*(-1+u+v)^2+a^2*
(u+v-u*v)^2+2*a*u*v*(u^2*(-1+v)-(-1+v)*v+u*(1-v+v^2))))
duv.17=function(u,v,a)
(2^a*((-1+2^a)*a*(1+u)^a*(1+v)^a+2^a*(-1+(1+u)^a)*
(-1+(1+v)^a)))/((1+u)*(1+v)*(2^a-2^a*(1+u)^a-2^a*(1+v)^a+
(1+u)^a*(1+v)^a)^2*(1+((-1+(1+u)^(-a))*(-1+(1+v)^(-a)))/
(-1+2^(-a)))^a^(-1))
duv.19=function(u,v,a)
(a^3*exp(a*(u^(-1)+v^(-1)))*(2+log(-exp(a)+exp(a/u)+exp(a/v))))/
((-exp(a)+exp(a/u)+exp(a/v))^2*u^2*v^2*log(-exp(a)+exp(a/u)+exp(a/v))^3)
duv.20=function(u,v,a)
(exp(u^(-a)+v^(-a))*u^(-1-a)*v^(-1-a)*log(-exp(1)+exp(u^(-a))+
exp(v^(-a)))^(-2-a^(-1))*(1+a+a*log(-exp(1)+exp(u^(-a))+exp(v^(-a)))))/
(-exp(1)+exp(u^(-a))+exp(v^(-a)))^2
#Luego se transforman los datos en una distribucion uniforme estandar, es decir,
#Se hallan las marginales empıricas usando:
Empiric.df=function(data,x)
data <- sort(data)
if(min(data) > 0) a=0 else a=floor(min(data)/100)*100
if(max(data) < 0) b=0 else b=ceiling(max(data)/100)*100
for(j in 1:length(x))
if(x[j] < a) x[j] <- a
if(x[j] > b) x[j] <- b
133
data <- c(a,data,b)
n <- length(data)
p <- c(rep(NA,(n-1)))
q <- c(rep(NA,(n-1)))
for(i in 2:(n-2))
p[i] <- (data[i]+data[i+1])/2
q[i] <- (i-1)/(n-2)
p[1] <- a
p[n-1] <- b
q[1] <- 0
q[n-1] <- 1
approx(p,q,xout=c(x))$y
Emp.x <- Empiric.df(x,x)
Emp.y <- Empiric.df(y,y)
#Ahora encontramos el estimador del parametro de la copula usando el procedimiento
de maxima verosimilitud:
likest=function(u, v, nr, start)
diffmethod=paste("duv.",nr,sep="")
assign("udata", u)
assign("vdata", v)
assign("dfunc", diffmethod)
negloglik <- function(alpha)
f <- - sum(log(eval(call(dfunc,udata, vdata, alpha))))
f
result<-nlminb(objective=negloglik,start=start)
loglik.value <- -negloglik(result$par)
#list(result)
#find out, if estimator is valid or not
validtest="alpha is not valid"
134 C Codigo Pruebas Graficas de Bondad de Ajuste
if (nr==1) if(result$par >= -1 & result$par != 0)
validtest="alpha is valid" else
if (nr==3) if(result$par >= -1 & result$par< 1)
validtest="alpha is valid" else
if (nr==4) if(result$par >= 1) validtest="alpha is valid" else
if (nr==5) if(result$par != 0) validtest="alpha is valid" else
if (nr==6) if(result$par >= 1) validtest="alpha is valid" else
if (nr==9) if(result$par > 0 & result$par <= 1)
validtest="alpha is valid" else
if (nr==10) if(result$par > 0 & result$par <= 1)
validtest="alpha is valid" else
if (nr==12) if(result$par >= 1) validtest="alpha is valid" else
if (nr==13) if(result$par >0) validtest="alpha is valid" else
if (nr==14) if(result$par >= 1) validtest="alpha is valid" else
if (nr==16) if(result$par >= 0) validtest="alpha is valid" else
if (nr==17) if(result$par != 0) validtest="alpha is valid" else
if (nr==19) if(result$par > 0) validtest="alpha is valid" else
if (nr==20) if(result$par > 0) validtest="alpha is valid"
else validtest="validity test not successfull!"
list(result$par, loglik.value, result$message, validtest)
#Al momento de llamar a la funcion, indique el nombre de cada familia usando
nr para el no. de la familia. #Seleccioando un punto arbitrario para iniciar
la optimizacion (start). Por ejemplo:
likest(Emp.x,Emp.y,1,0.86)
#Metodos Graficos:
#Metodo Grafico I: el metodo grafico I hace uso de las primeras derivadas, dadas
a continuacion:
du.1=function(u,v,a)
u^(-1-a)/((-1+u^(-a)+v^(-a))^((1+a)/a))
du.3=function(u,v,a)
((1+(a*(-1+v)))*v)/(-1+(a*(-1+u)*(-1+v)))^2
du.4=function(u,v,a)
(((-log(u))^(-1+a))*((-log(u))^a+(-log(v))^a)^(-1+a^(-1)))/
135
(exp((-log(u))^a+(-log(v))^a)^a^(-1)*u)
du.5=function(u,v,a)
(exp(a)*(-1+exp(a*v)))/(-exp(a)+exp(a+a*u)-exp(a*(u+v))+exp(a+a*v))
du.6=function(u,v,a)
-(((1-u)^(-1+a))*(-1+((1-v)^a))*((1-u)^a+(1-v)^a-((1-u)^a*(1-v)^a))^(-1+a^(-1)))
du.9=function(u,v,a)
(v-a*v*log(v))/exp(a*log(u)*log(v))
du.10=function(u,v,a)
-((v*(-2+v^a))/(2-v^a+u^a*(-1+v^a))^((1+a)/a))
du.12=function(u,v,a)
((-1+u^(-1))^(-1+a)*((-1+u^(-1))^a+(-1+v^(-1))^a)^(-1+a^(-1)))/
(u^2*(1+((-1+u^(-1))^a+(-1+v^(-1))^a)^a^(-1))^2)
du.13=function(u,v,a)
(exp(1-(-1+(1-log(u))^a+(1-log(v))^a)^a^(-1))*
(1-log(u))^(-1+a)*(-1+(1-log(u))^a+(1-log(v))^a)^(-1+a^(-1)))/u
du.14=function(u,v,a)
((-1+u^(-a^(-1)))^(-1+a)*((-1+u^(-a^(-1)))^a+
(-1+v^(-a^(-1)))^a)^(-1+a^(-1))*(1+((-1+u^(-a^(-1)))^a+
(-1+v^(-a^(-1)))^a)^a^(-1))^(-1-a))/u^((1+a)/a)
du.16=function(u,v,a)
(1+a/u^2+((1+a/u^2)*(-1+u-a*(-1+u^(-1)+v^(-1))+v))/
sqrt(4*a+(-1+u-a*(-1+u^(-1)+v^(-1))+v)^2))/2
du.17=function(u,v,a)
((1+u)^(-1-a)*(-1+(1+v)^(-a)))/((-1+2^(-a))*
(1+(((-1+(1+u)^(-a))*(-1+(1+v)^(-a)))/(-1+2^(-a))))^((1+a)/a))
du.19=function(u,v,a)
(a^2*exp(a/u))/((-exp(a)+exp(a/u)+exp(a/v))*
u^2*log(-exp(a)+exp(a/u)+exp(a/v))^2)
du.20=function(u,v,a)
136 C Codigo Pruebas Graficas de Bondad de Ajuste
(exp(u^(-a))*u^(-1-a))/((-exp(1)+exp(u^(-a))+exp(v^(-a)))*
log(-exp(1)+exp(u^(-a))+exp(v^(-a)))^((1+a)/a))
#M~A c©todo Gr~A¡fico 1:
plotmeth1=function(data1,data2,alpha,nr)
psfile=paste("Meth1=",nr,".ps",sep="")
diffmethod=paste("du.",nr,sep="")
title=paste("Family",nr)
alphavalue=paste("a=",round(alpha,digits=3),sep="")
message=c("no message")
#postscript(psfile)
data3=sort(eval(call(diffmethod,data1,data2,alpha)))
diffdata=data3[!is.na(data3)]
if(length(data3)>length(diffdata))
message=paste("Family ",nr,"contains NA!")
tq=((1:length(diffdata))/(length(diffdata)+1))
plot(diffdata,tq,main=title,xlab="C1[F(x),G(y)]",ylab="U(0,1)",type="l")
legend(0.6,0.3,c(alphavalue))
abline(0,1)
#dev.off()
#Metodo Grafico II. Este metodo hace uso de la funcion K y de las funciones
copula, dadas a continuacion:
Kfi.1=function(t, a)
fi.1=1/a*(t^-a-1)
dfi.1=-t^(-1-a)
Kfi.1=t-fi.1/dfi.1
Kfi.1
Kfi.2=function(t, a)
fi.2=(1-t)^a
dfi.2=-(a*(1-t)^(-1+a))
Kfi.2=t-fi.2/dfi.2
Kfi.2
Kfi.3=function(t, a)
137
fi.3=log((1-a*(1-t))/t)
dfi.3=(-1 + a)/((1 + a*(-1 + t))*t)
Kfi.3=t-fi.3/dfi.3
Kfi.3
Kfi.4=function(t, a)
fi.4=(-log(t))^a
dfi.4=a*(-log(t))^a/(t*log(t))
Kfi.4=t-fi.4/dfi.4
Kfi.4
Kfi.5=function(t, a)
fi.5=-log((exp(-a*t)-1)/(exp(-a)-1))
dfi.5=a/(1-exp(a*t))
Kfi.5=t-fi.5/dfi.5
Kfi.5
Kfi.6=function(t, a)
fi.6=-log(1-(1-t)^a)
dfi.6=-((a*(1 - t)^(-1 + a))/(1 - (1 - t)^a))
Kfi.6=t-fi.6/dfi.6
Kfi.6
Kfi.7=function(t, a)
fi.7=-log(1-(1-t)^a)
dfi.7=-((a*(1 - t)^(-1 + a))/(1 - (1 - t)^a))
Kfi.7=t-fi.7/dfi.7
Kfi.7
Kfi.8=function(t, a)
fi.8=(1-t)/(1+t*(a-1))
dfi.8=-(a/(1-t+a*t)^2)
Kfi.8=t-fi.8/dfi.8
Kfi.8
Kfi.9=function(t, a)
fi.9=log(1-a*log(t))
dfi.9=a/(-t + a*t*log(t))
Kfi.9=t-fi.9/dfi.9
Kfi.9
138 C Codigo Pruebas Graficas de Bondad de Ajuste
Kfi.10=function(t, a)
fi.10=log(2*t^(-a)-1)
dfi.10=(2*a)/(t*(-2 + t^a))
Kfi.10=t-fi.10/dfi.10
Kfi.10
Kfi.11=function(t, a)
fi.11=log(2-t^a)
dfi.11=(a*t^(-1 + a))/(-2 + t^a)
Kfi.11=t-fi.11/dfi.11
Kfi.11
Kfi.12=function(t, a)
fi.12=(1/t-1)^a
dfi.12=-(a*(-1+1/t)^(-1+a)/t^2)
Kfi.12=t-fi.12/dfi.12
Kfi.12
Kfi.13=function(t, a)
fi.13=(1-log(t))^a-1
dfi.13=-((a*(1 - log(t))^(-1 + a))/t)
Kfi.13=t-fi.13/dfi.13
Kfi.13
Kfi.14=function(t, a)
fi.14=(t^(-1/a)-1)^a
dfi.14=(-1+t^-(1/a))^a/(t*(-1+t^(1/a)))
Kfi.14=t-fi.14/dfi.14
Kfi.14
Kfi.15<-function(t, a)
fi.15=(1-t^(1/a))^a
dfi.15=-(t^(-1+1/a)*(1-t^(1/a))^(-1+a))
Kfi.15=t-fi.15/dfi.15
Kfi.15
139
Kfi.16<-function(t, a)
fi.16=(a/t+1)*(1-t)
dfi.16=-1 - a/t^2
Kfi.16=t-fi.16/dfi.16
Kfi.16
Kfi.17<-function(t, a)
fi.17=-log(((1+t)^(-a)-1)/(2^(-a)-1))
dfi.17=-(a/((1 + t)*(-1 + (1 + t)^a)))
Kfi.17=t-fi.17/dfi.17
Kfi.17
Kfi.18<-function(t, a)
fi.18=exp(a/(t-1))
dfi.18=-(a*exp(a/(-1+t))/(-1+t)^2)
Kfi.18=t-fi.18/dfi.18
Kfi.18
Kfi.19<-function(t, a)
fi.19=exp(a/t)-exp(a)
dfi.19=-((a*exp(a/t))/t^2)
Kfi.19=t-fi.19/dfi.19
Kfi.19
Kfi.20<-function(t, a)
fi.20=exp(t^(-a))-exp(1)
dfi.20=-(a*exp(t^(-a))*t^(-1 - a))
Kfi.20=t-fi.20/dfi.20
Kfi.20
#-----copula clayton (copula 1)--------------------
copula.1<-function(data1,data2,alpha)
140 C Codigo Pruebas Graficas de Bondad de Ajuste
n<-length(data1)
Cl<-numeric(n)
for(i in 1:n)
Cl[i]<-max(1/(((data1[i]^(-alpha))+(data2[i]^(-alpha))-1)^(1/alpha)),0)
return(Cl)
#-----copula 2--------------------
copula.2<-function(data1,data2,alpha)
n<-length(data1)
Cl<-numeric(n)
for(i in 1:n)
Cl[i]<-max(1-((1-data1[i])^(alpha)+(1-data2[i])^(alpha))^(1/alpha),0)
return(Cl)
#-----copula 3--------------------
copula.3<-function(data1,data2,alpha)
n<-length(data1)
Gum<-numeric(n)
for(i in 1:n)
Gum[i]<-(data1[i]*data2[i])/(1-alpha*(1-data1[i])*(1-data2[i]))
return(Gum)
#-----copula gumbel (copula 4)--------------------
copula.4<-function(data1,data2,alpha)
n<-length(data1)
Gum<-numeric(n)
for(i in 1:n)
Gum[i]<-exp(-((-log(data1[i]))^(alpha)+(-log(data2[i]))^(alpha))^(1/alpha))
return(Gum)
#-----copula frank (copula 5)-------------------
141
copula.5<-function(data1,data2,alpha)
n<-length(data1)
Fra<-numeric(n)
a<-numeric(n)
b<-numeric(n)
c<-numeric(n)
d<-numeric(n)
for(i in 1:n)
a<- -(1/alpha)
b[i]<-(exp(-alpha*data1[i])-1)
c[i]<-(exp(-alpha*data2[i])-1)
d<-(exp(-alpha)-1)
Fra[i]<-a*log(1+((b[i]*c[i])/d))
return(Fra)
#-----copula 6-------------------
copula.6<-function(data1,data2,alpha)
n<-length(data1)
j<-numeric(n)
a<-numeric(n)
b<-numeric(n)
c<-numeric(n)
for(i in 1:n)
a[i]<-(1-data1[i])^alpha
b[i]<-(1-data2[i])^alpha
c[i]<-a[i]*b[i]
j[i]<-1-(a[i]+b[i]-c[i])^(1/alpha)
return(j)
#-----Copula 7--------------------
copula.7<-function(data1,data2,alpha)
n<-length(data1)
Cl<-numeric(n)
for(i in 1:n)
Cl[i]<-max(alpha*data1[i]*data2[i]+(1-alpha)*(data1[i]+data2[i]-1),0)
142 C Codigo Pruebas Graficas de Bondad de Ajuste
return(Cl)
#-----Copula 8--------------------
copula.8<-function(data1,data2,alpha)
n<-length(data1)
Cl<-numeric(n)
a<-numeric(n)
b<-numeric(n)
c<-numeric(n)
for(i in 1:n)
a[i]<-(1-data1[i])
b[i]<-(1-data2[i])
c[i]<-a[i]*b[i]
Cl[i]<-max((alpha^2*data1[i]*data2[i]-a[i]*b[i])/(alpha^2-((alpha-1)^2)*c[i]),0)
return(Cl)
#-----Copula 9-------------------
copula.9<-function(data1,data2,alpha)
n<-length(data1)
cop<-numeric(n)
for(i in 1:n)
cop[i]<-data[i]*data2[i]*exp(-alpha*log(data1[i])*log(data2[i]))
return(cop)
#-----Copula 10------------------
copula.10<-function(data1,data2,alpha)
n<-length(data1)
cop<-numeric(n)
for(i in 1:n)
a[i]<-(1-(data1[i]^alpha))
b[i]<-(1-(data2[i]^alpha))
cop[i]<-(data1[i]*data2[i])/(1+(a[i]*b[i]))^(1/alpha)
return(cop)
143
#-----Copula 11------------------
copula.11<-function(data1,data2,alpha)
n<-length(data1)
Cl<-numeric(n)
a<-numeric(n)
b<-numeric(n)
for(i in 1:n)
a[i]<-(1-data1[i])^alpha
b[i]<-(1-data2[i])^alpha
Cl[i]<-max(((data1[i]^alpha)*(data2[i]^alpha)-2*a[i]*b[i])^(1/alpha),0)
return(Cl)
#-----Copula 12-------------------
copula.12<-function(data1,data2,alpha)
n<-length(data1)
cop<-numeric(n)
a<-numeric(n)
b<-numeric(n)
for(i in 1:n)
a[i]<-((data1[i]^(-1))-1)^alpha
b[i]<-((data2[i]^(-1))-1)^alpha
cop[i]<-(1+(a[i]+b[i])^(1/alpha))^(-1)
return(cop)
#-----copula 13-------------------
copula.13<-function(data1,data2,alpha)
n<-length(data1)
G<-numeric(n)
for(i in 1:n)
G[i]<-exp(1-((1-log(data1[i]))^(alpha)+(1-log(data2[i]))^(alpha)-1)^(1/alpha))
return(G)
#-----copula 14-------------------
144 C Codigo Pruebas Graficas de Bondad de Ajuste
copula.14<-function(data1,data2,alpha)
n<-length(data1)
G<-numeric(n)
a<-numeric(n)
b<-numeric(n)
for(i in 1:n)
a[i]<-((data1[i]^(-1/alpha))-1)^alpha
b[i]<-((data2[i]^(-1/alpha))-1)^alpha
G[i]<-(1+(a[i]+b[i])^(1/alpha))^(-alpha)
return(G)
#-----copula 15------------------
copula.15<-function(data1,data2,alpha)
n<-length(data1)
Cl<-numeric(n)
a<-numeric(n)
b<-numeric(n)
for(i in 1:n)
a[i]<-(1-(data1[i]^(1/alpha)))^alpha
b[i]<-(1-(data2[i]^(1/alpha)))^alpha
Cl[i]<-max((1-(a[i]+b[i])^(1/alpha))^alpha,0)
return(Cl)
#-----copula 16-------------------
copula.16<-function(data1,data2,alpha)
n<-length(data1)
j<-numeric(n)
s<-numeric(n)
for(i in 1:n)
s[i]<-data1[i]+data2[i]-1-alpha*(1/data1[i]+1/data2[i]-1)
j[i]<-1/2*(s[i]+sqrt(s[i]^2+4*alpha))
return(j)
145
#-----copula 17-------------------
copula.17<-function(data1,data2,alpha)
n<-length(data1)
j<-numeric(n)
a<-numeric(n)
b<-numeric(n)
for(i in 1:n)
a[i]<-1/(1-data1[i])^alpha
b[i]<-1/(1-data2[i])^alpha
j[i]<-(1+(((a[i]-1)*(b[i]-1))/(2^(1/alpha)-1)))^(-1/alpha)-1
return(j)
#-----copula 18----------------------
copula.18<-function(data1,data2,alpha)
n<-length(data1)
Cl<-numeric(n)
a<-numeric(n)
b<-numeric(n)
for(i in 1:n)
a[i]<-exp(alpha/(data1[i]-1))
b[i]<-exp(alpha/(data2[i]-1))
Cl[i]<-max(1+(alpha/log(a[i]+b[i])),0)
return(Cl)
#-----copula 19----------------------------
copula.19<-function(data1,data2,alpha)
n<-length(data1)
G<-numeric(n)
a<-numeric(n)
b<-numeric(n)
for(i in 1:n)
a[i]<-exp(alpha/data1[i])
b[i]<-exp(alpha/data2[i])
G[i]<-alpha/(log(a[i]+b[i]-exp(alpha)))
return(G)
146 C Codigo Pruebas Graficas de Bondad de Ajuste
#-----copula 20---------------------------
copula.20<-function(data1,data2,alpha)
n<-length(data1)
G<-numeric(n)
a<-numeric(n)
b<-numeric(n)
for(i in 1:n)
a[i]<-exp(data1[i]^(-alpha))
b[i]<-exp(data2[i]^(-alpha))
G[i]<-(log(a[i]+b[i]-exp(1)))^(-1/alpha)
return(G)
#Metodo Grafico 2
plotmeth2=function(data1,data2,alpha,nr)
psfile=paste("Meth2=",nr,".ps",sep="")
distmethod=paste("Kfi.",nr,sep="")
title=paste("Family",nr)
alphavalue=paste("a=",round(alpha,digits=3),sep="")
copulamethod=paste("copula.",nr,sep="")
message=c("no message")
#postscript(psfile)
data3=eval(call(copulamethod,data1,data2,alpha))
data4=sort(eval(call(distmethod,data3,alpha)))
distdata=data4[!is.na(data4)]
if(length(data3)>length(distdata))
message=paste("Family ",nr,"contains NA!")
tq=((1:length(distdata))/(length(distdata)+1))
plot(distdata,tq,main=title,xlab="Kc[C(F(x),G(y))]",ylab="U(0,1)",type="l")
#legend(0.6,0.3,alphavalue,font=13)
abline(0,1)
#dev.off()
#Metodo Grafico III:
rndvar<-function(y)
n=(length(y)/2)
147
W=numeric(n)
for(i in 2:n)
W[i]=sum(y[1,][1:n]<y[1,][i]& y[2,][1:n]<y[2,][i])/(n-1)
W
z <- rbind(sort(x),y[order(x)])
kn<-function(b)
w=rndvar(b)
f<-Empiric.df(w,w)
return(f)
plotmeth3<-function(data1,data2,z,alpha,nr)
psfile<-paste("Meth3=",nr,".ps",sep="")
distmethod<-paste("Kfi.",nr,sep="")
title<-paste("Family",nr)
alphavalue<-paste("a=",round(alpha,digits=3),sep="")
copulamethod<-paste("copula.",nr,sep="")
message<-c("no message")
#postscript(psfile)
data3<-eval(call(copulamethod,data1,data2,alpha))
data4<-data3[!is.na(data3)]
# nonparametric distribution
emp.distdata<-kn(z) # le quit~A c© [!is.na(data3)]
# parametric distribution
distdata<-sort(eval(call(distmethod,data4,alpha)))
# check, if NA occured
if(length(data3) > length(distdata[!is.na(distdata)]))
message<-paste("Family ",nr,"contains NA!")
plot(sort(distdata),sort(emp.distdata),main=title,xlab="Kc[C(F(x),G(y))]",ylab="Empirical d.f.",type="l")
legend(0.5,0.3,alphavalue)
abline(0,1)
#dev.off()
#Valores-P de los metodos Graficos de Bondad de ajuste
148 C Codigo Pruebas Graficas de Bondad de Ajuste
#Valores P para el Metodo Grafico I (Prueba de K-S):
pvalue.meth1=function(data1,data2,alpha,nr)
ks=numeric(length(nr))
for(i in 1:length(nr))
diffmethod=paste("du.",nr[i],sep="")
data3=sort(eval(call(diffmethod,data1,data2,alpha[i])))
diffdata=data3[!is.na(data3)]
ks[i]=ks.test(diffdata,"punif")$p
GOF=cbind(nr,ks)
ordered.ks=cbind(as.integer(nr),ks)
ordered.ks=cbind(ordered.ks[,1]
[order(-ordered.ks[,2])],-sort(-ordered.ks[,2]))
return(GOF)
#Valores p para el Metodo Grafico II (Prueba de K-S):
pvalue.meth2=function(data1,data2,alpha,nr)
ks=numeric(length(nr))
for(i in 1:length(nr))
distmethod=paste("Kfi.",nr[i],sep="")
copulamethod=paste("copula.",nr[i],sep="")
data3=eval(call(copulamethod,data1,data2,alpha[i]))
distdata=sort(eval(call(distmethod,data3,alpha[i])))
ks[i]=ks.test(distdata,"punif")$p
GOF=cbind(nr,ks)
ordered.ks=cbind(as.integer(nr),ks)
ordered.ks=cbind(ordered.ks[,1]
[order(-ordered.ks[,2])],-sort(-ordered.ks[,2]))
return(GOF)
#Valores P para el Metodo Gafico II (Prueba de K-S):
149
pvalue.meth3=function(data1,data2,data3,alpha,nr)
ks=numeric(length(nr))
for(i in 1:length(nr))
distmethod=paste("Kfi.",nr[i],sep="")
copulamethod=paste("copula.",nr[i],sep="")
data4=eval(call(copulamethod,data1,data2,alpha[i]))
distdata=sort(eval(call(distmethod,data4,alpha[i])))
emp.distdata<-kn(z) # le quit~A c© [!is.na(data3)]
ks[i]=ks.test(distdata,emp.distdata)$p
GOF=cbind(nr,ks)
ordered.ks=cbind(as.integer(nr),ks)
ordered.ks=cbind(ordered.ks[,1][order(-ordered.ks[,2])],
-sort(-ordered.ks[,2]))
return(GOF)
D. Codigo Pruebas de Vuong y Clarke
# --------------------------- VUONG-TEST -----------------------------------
#===============================================================================
# Author: Natalia Djunushalieva, TU M~A14nchen, March 2010
# For more details see Quang H. Vuong, 1989, Econometrica
# "Likelihood Ratio Tests for Model Selection and Non-Nested Hypotheses"
#-------------------------------------------------------------------------------
vuong.test<-function(loglik.model1,loglik.model2,alpha=0.05,p1=0,p2=0,
correction="Schwarz",print.result=TRUE,name.model1=NULL,name.model2=NULL)
#-----------------------------------------------------------------------------
# INPUT: PARAMETER DESCRIPTION
# loglik.model1 - numerical vector, individual log-likelihoods of model 1
# loglik.model2 - numerical vector, individual log-likelihoods of model 2
# alpha - numerical, significance level of the test
# p1 - numerical, number of parameters in model 1
# p2 - numerical, number of parameters in model 2
# correction - character, correction due to Schwarz or due to Akaike
# ("Schwarz" or "Akaike")
# print.result - logical, should test results be printed?
# name.model1 - character, model 1 denotation
# name.model2 - character, model 2 denotation
#-----------------------------------------------------------------------------
# OUPUT: PARAMETER DESCRIPTION
# result - numerical, favored model (1=model1, 2=model2 or 0=non)
# nu - numerical, value of test statistic
# pvalue - numerical, p-value of test statistic nu
# kutosis - numerical, kurtosis of diff=loglik.model1-loglik.model2
#-----------------------------------------------------------------------------
# REQUIRED PACKAGES: timeDate (for kurtosis() function)
#-----------------------------------------------------------------------------
# load required packages - timeDate etc.
if(!is.element(c("package:timeDate"),search()))library("timeDate")
152 D Codigo Pruebas de Vuong y Clarke
model.spec<-""
result<-NA
if((is.null(name.model1)+ is.null(name.model2))==0)
model.spec1<-paste("(1) ",name.model1,sep="")
model.spec2<-paste("(2) ",name.model2,sep="")
model.spec<-paste(model.spec1,model.spec2,sep=" ~ ")
#cat(paste("VUONG TEST: ",model.spec,sep=""), "\n")
if(print.result)cat("H0: model (1) is eqivalent to model (2)", "\n")
n<-length(loglik.model1)
if(correction=="Schwarz")
correction.term<-(p1-p2)*log(n)/(2*n) # for individual log-likelihoods
else if(correction=="Akaike")
correction.term<-(p1-p2)/n # for individual log-likelihoods
# Calculate test statistic
m.i<-loglik.model1-loglik.model2-correction.term
kurt.ratios<-kurtosis(loglik.model1-loglik.model2)
nu<-(sqrt(n)*mean(m.i))/(sqrt((n-1)/n*var(m.i)))
if(abs(nu)<qnorm(1-alpha/2))
decision<-"Decision: non of the models is favored"
result<-0
if(nu >=qnorm(1-alpha/2) )
decision<-"Decision: favor model 1"
result<-1
if(nu <= -qnorm(1-alpha/2) )
decision<-"Decision: favor model 2"
result<-2
if(print.result)cat(decision,"\n")
153
pvalue<-2*pnorm(-abs(nu))
result<-data.frame(result,round(nu,digits=3),
round(pvalue,digits=3),round(kurt.ratios,digits=3))
names(result)<-c("model","nu","p.value","kurtosis")
rownames(result)<-NULL
if(print.result)print(result)
if(print.result)cat("\n")
return(result)
rm(n,m.i,kurt.ratios,nu,pvalue,result,decision)
# end of vuong.test()
#===============================================================================
# --------------------------- CLARKE-TEST -----------------------------------
#===============================================================================
# Author: Natalia Djunushalieva, TU M~A14nchen, March 2010
# For more details see Kevin A. Clarke, 2007, Political Analysis
# "A Simple Distribution-Free Test for Nonnested Model Selection"
#-------------------------------------------------------------------------------
clarke.test<-function(loglik.model1,loglik.model2,alpha=0.05,p1=0,p2=0,
correction="Schwarz",print.result=TRUE,name.model1=NULL,name.model2=NULL)
#-----------------------------------------------------------------------------
# INPUT: PARAMETER DESCRIPTION
# loglik.model1 - numerical vector, individual log-likelihoods of model 1
# loglik.model2 - numerical vector, individual log-likelihoods of model 2
# alpha - numerical, significance level of the test
# p1 - numerical, number of parameters in model 1
# p2 - numerical, number of parameters in model 2
# correction - character, correction due to Schwarz or due to Akaike
# ("Schwarz" or "Akaike")
# print.result - logical, should test results be printed?
# name.model1 - character, model 1 denotation
# name.model2 - character, model 2 denotation
#-----------------------------------------------------------------------------
# OUPUT: PARAMETER DESCRIPTION
# result - numerical, favored model (1=model1, 2=model2 or 0=non)
# nu - numerical, value of test statistic
# pvalue - numerical, p-value of test statistic nu
# kutosis - numerical, kurtosis of diff=loglik.model1-loglik.model2
#-----------------------------------------------------------------------------
154 D Codigo Pruebas de Vuong y Clarke
# REQUIRED PACKAGES: timeDate (for kurtosis() function)
#-----------------------------------------------------------------------------
# load required packages - timeDate etc.
if(!is.element(c("package:timeDate"),search()))library("timeDate")
model.spec<-""
result<-NA
if((is.null(name.model1)+ is.null(name.model2))==0)
model.spec1<-paste("(1) ",name.model1,sep="")
model.spec2<-paste("(2) ",name.model2,sep="")
model.spec<-paste(model.spec1,model.spec2,sep=" ~ ")
#cat(paste("CLARKE TEST: ",model.spec,sep=""), "\n")
if(print.result)cat("H0: model (1) is eqivalent to model (2)", "\n")
n<-length(loglik.model1)
if(correction=="Schwarz")
correction.term<-(p1-p2)*log(n)/(2*n) # for individual log-likelihoods
else if(correction=="Akaike")
correction.term<-(p1-p2)/n # for individual log-likelihoods
# Calculate test statistic
m.i<-loglik.model1-loglik.model2-correction.term
kurt.ratios<-kurtosis(loglik.model1-loglik.model2)
B<-sum(m.i > 0)
# Calculate critical value
decision<-"Decision: non of the models is favored"
result<-0
if(B>=n/2)
if(print.result)cat("Perform upper tail test", "\n")
cAlphaPlus<-1+qbinom(p=(1-alpha),size=n,prob=0.5)
#cat(paste("cAlphaPlus = ",cAlphaPlus), "\n")
pvalue<-1-pbinom(B - 1, n, 0.5)
if(pvalue<=alpha)
decision<-"Decision: favor model 1"
155
result<-1
if(B<n/2)
if(print.result)cat("Perform lower tail test", "\n")
cAlphaMinus<-qbinom(p=alpha,size=n,prob=0.5)
#cat(paste("cAlphaMinus = ",cAlphaMinus), "\n")
pvalue<-pbinom(B, n, 0.5)
if(pvalue<=alpha)
decision<-"Decision: favor model 2"
result<-2
if(print.result)cat(decision,"\n")
result<-data.frame(result,round(B,digits=3),round(pvalue,digits=3),
round(kurt.ratios,digits=3))
names(result)<-c("model","B","p.value","kurtosis")
rownames(result)<-NULL
if(print.result)print(result)
if(print.result)cat("\n")
return(result)
rm(n,m.i,kurt.ratios,B,cAlphaMinus,cAlphaPlus,result,decision,pvalue)
# end of clarke.test()
\endverbarim
\beginverbatim
library(CDVine)
tau1=0.8
param1=BiCopTau2Par(6,tau1)
data=BiCopSim(300,6,param1)
x=data[,1]
y=data[,2]
BiCopVuongClarke(x,y,familyset=c(1:10))
Bibliografıa
Belgorodski, N. 2010. Selecting pair-copula families for regular vines with application
to the multivariate analysis of European stock market indices. Ph.D. diss., Technische
Universitat Munchen.
Clarke, Kevin A. 2007. A simple distribution-free test for nonnested model selection.
Political Analysis 15 (3): 347–363.
Del Rio, R y Quesada, V. 2007. Teorıa de Copulas y control de Riesgo Financiero.
Ph.D. diss., Universidad Complutense de Madrid.
De Matteis, R. 2001. Fitting Copulas to Data: Diploma Thesis. ETH.
Embrechts, P., F. Lindskog, and A. McNeil. 2001. Modelling Dependence with Copulas
and Applications to Risk Management. Department of Mathematics ETHZ, Zurich.
Escarela, G. y Carriere, J. F. 2003. Fitting Competing Risks with an Assumed Copula.
Statistical Methods in Medical Research 12:333–349.
Escarela, G. y Mena, R.H. y Castillo-Morales A. 2006. A Flexible Class of Parametric
Transition Regression Models Based on Copulas: Application to Poliomyelitis Incidence.
Statistical Methods in Medical Research 15 (6): 593–609.
Fisher, N. I. y Switzer, P. 1985. Chi-Plots for Assessing Dependence. Biometrika 72 (2):
pp. 253–265.
Fisher, N. I. y Switzer, P.. 2001. Graphical Assessment of Dependence: Is a Picture Worth
100 Tests? The American Statistician 55 (3): pp. 233–239.
Frees, Edward W y Valdez, Emiliano A. 1998. Understanding relationships using copulas.
North American actuarial journal 2 (1): 1–25.
Genest, Christian y Remillard, Bruno y Beaudoin-David. 2009. Goodness-of-fit tests for
copulas: A review and a power study. Insurance: Mathematics and economics 44 (2):
199–213.
Genest, C y Boies, J-C. 2003. Detecting Dependence with Kendall Plots. The American
Statistician 57 (4): pp. 275–284.
158 Bibliografıa
Genest, C. y Favre, A. C. 2007. Everything you always wanted to know about Copula
Modeling but were afraid to ask. Journal of Hydrologic Engineering, pp. 347–368.
Genest, C y MacKay, J. 1986. The Joy of Copulas: Bivariate Distributions with Uniform
Marginals. The American Statistician 40 (4): pp. 280–283.
Genest, C y Rivest, L.P. 1993. Statistical inference procedures for bivariate Archimedean
copulas. The American Statistical Association 88 (3): pp. 1034–1043.
Jaramillo, M y Lozano, J. 2014. Construccion de Distribuciones Multivariadas con Margi-
nales Dependientes Usando Copulas en R. Ciencia en Desarrollo 5 (1): pp. 21–29.
Jianfei, Cao. 2004. Nonparametric estimation of copulas of financial time series. Ph.D. diss.
Joe, H. 1997. Multivariate Models and Dependence Concepts. Chapman and Hall/CRC.
Kullback, Solomon y Leibler, Richard A. 1951. On information and sufficiency. The annals
of mathematical statistics 22 (1): 79–86.
Lopera, C., M. Jaramillo, and N. Acosta. 2012. Cuando inicia la enfermedad de Alzheimer?
Kaplan Meier versus Turnbull: Una aplicacion a Datos con Censura Arbitraria. Revista
Colombiana de Estadıstica 35 (2): 239–254.
Moreno, D y Blanco, L. 2012. Metodo para elegir una Copula Arquimediana Optima.
Master’s thesis, Universidad Nacional de Colombia.
Nelsen, R.B. 2006. An Introduction to Copulas. Springer Series in Statistics.
Schweizer, B. y Sklar, A. 1983. Probabilistic metric spaces. Elsevier Science Publishing
Co., Inc.
Szego, G. 2002. Measures of risk. Journal of Banking and Finance 26:1253–1272.
Vuong, Quang H. 1989. Likelihood ratio tests for model selection and non-nested hypot-
heses. Econometrica: Journal of the Econometric Society, pp. 307–333.