Upload
others
View
2
Download
0
Embed Size (px)
Citation preview
UNIVERSIDADE FEDERAL DO CEARÁ CURSO DE PÓS-GRADUAÇÃO EM ECONOMIA - CAEN
ALANE SIQUEIRA ROCHA
MERCADOS DE RISCO E A TEORIA DOS VALORES EXTREMOS: ESTUDO EMPÍRICO DE CASOS
Fortaleza 2004
ALANE SIQUEIRA ROCHA
MERCADOS DE RISCO E A TEORIA DOS VALORES EXTREMOS: ESTUDO EMPÍRICO DE CASOS
Dissertação aprovada como requisito parcial para obtenção do grau de mestre no curso de Pós-Graduação em Economia, Área de Concentração em Economia de Empresas, da Universidade Federal do Ceará - CAEN. Orientador: Prof. Dr. Ronaldo de Albuquerque e Arraes.
Fortaleza 2004
Rocha, Alane Siqueira
Mercados de risco e a Teoria dos Valores Extremos: estudo empírico de casos / Alane Siqueira Rocha - Fortaleza, 2004.
80 f.
Dissertação (Mestrado) - Universidade Federal do Ceará, Curso de Pós-Graduação em Economia - CAEN.
1.Teoria dos Valores Extremos. 2. Mercados de Risco. I. Título.
CDD – 519.5
ii
ALANE SIQUEIRA ROCHA
MERCADOS DE RISCO E A TEORIA DOS VALORES EXTREMOS: ESTUDO EMPÍRICO DE CASOS
Dissertação aprovada como requisito parcial para obtenção do grau de mestre no curso de Pós-Graduação em Economia, Área de Concentração em Economia de Empresas, da Universidade Federal do Ceará - CAEN.
Aprovada em 30 de abril de 2004.
BANCA EXAMINADORA
______________________________________________________ Prof. Dr. Ronaldo de Albuquerque e Arraes (Orientador)
Universidade Federal do Ceará - UFC
_____________________________________________________ Prof. Dr. Emerson Luís Lemos Marinho Universidade Federal do Ceará - UFC
_____________________________________________ Prof. Dr. Emílio Recamonde Capelo
Universidade Federal do Ceará - UFC
iii
Aos amigos da Probus.
iv
AGRADECIMENTOS
Ao Professor Ronaldo de Albuquerque e Arraes pelo esmero, competência e dedicação como professor do curso de mestrado e como orientador deste trabalho.
Aos membros da banca examinadora, Emerson Luís Lemos Marinho e Emílio Recamonde Capelo, que contribuíram com sugestões valiosas ao trabalho.
Ao amigo Edmar Honorato de Sousa Filho pelo auxílio na obtenção das séries financeiras utilizadas neste trabalho.
v
SUMÁRIO INTRODUÇÃO ........................................................................................................................ 1
CAPÍTULO 1. A TEORIA DOS VALORES EXTREMOS........................................................ 4 1.1. INTRODUÇÃO .............................................................................................................. 4 1.2. DISTRIBUIÇÃO GENERALIZADA DOS VALORES EXTREMOS - GVE....................... 6 1.3. ESTIMAÇÃO DOS PARÂMETROS DA DISTRIBUIÇÃO GVE .................................... 11 1.4. ESTIMATIVA DE QUANTIS DA DISTRIBUIÇÃO GVE ................................................ 14 1.5. TEORIA DOS VALORES EXTREMOS APLICADA AO VALUE-AT-RISK (VaR) ......... 15 1.6. TEORIA DOS VALORES EXTREMOS APLICADA AO MERCADO DE SEGUROS ... 17
CAPÍTULO 2. DESCRIÇÃO DAS SÉRIES UTILIZADAS..................................................... 21 2.1. INTRODUÇÃO ............................................................................................................ 21 2.2. QUALIDADE DOS AJUSTES DE DISTRIBUIÇÕES TEÓRICAS ................................ 22
2.2.1. Procedimentos gráficos......................................................................................... 23 2.2.1.1. Comparação de freqüências .............................................................................. 23 2.2.1.2. Gráfico Probabilidade-Probabilidade (P-P) ........................................................ 23 2.2.1.3. Gráfico Quantil-Quantil (Q-Q) ............................................................................ 23 2.2.2. Teste de Adequação dos Ajustes ......................................................................... 24 2.2.2.1 Teste Kolmogorov-Smirnov (K-S) ....................................................................... 25 2.2.2.2 Teste Anderson-Darling (A-D)............................................................................. 25
2.3. SÉRIE IBOVESPA....................................................................................................... 26 2.4. SÉRIE MERVAL .......................................................................................................... 29 2.5. SÉRIE DOWN JONES................................................................................................. 33 2.6. SÉRIE DE PERDAS COM SEGURO DE INCÊNDIO................................................... 37
CAPÍTULO 3. APLICAÇÃO NUMÉRICA DA TVE ............................................................... 40 3.1. INTRODUÇÃO ............................................................................................................ 40 3.2. ESTIMATIVAS DE PERDAS PARA AS SÉRIES FINANCEIRAS ................................ 40
3.2.1. Metodologias Tradicionais para o cálculo do VaR ................................................ 40 3.2.1.1.VaR Simulação Histórica .................................................................................... 40 3.2.1.2.VaR Normal......................................................................................................... 42 3.2.1.3. VaR Paramétrico................................................................................................ 42 3.2.2. TVE para o cálculo da Perda Máxima Esperada - VaR ........................................ 44
3.3. ESTIMATIVAS DE PERDAS PARA A SÉRIES DE INDENIZAÇÕES DE SEGURO DE INCÊNDIO.......................................................................................................................... 51
CAPÍTULO 4. RESULTADOS EMPÍRICOS PARA VERIFICAÇÃO DA TEORIA DOS VALORES EXTREMOS ........................................................................................................ 56
4.1. INTRODUÇÃO ............................................................................................................ 56 4.2. VERIFICAÇÃO DAS ESTIMATIVAS DE PERDAS ...................................................... 56 4.3. ANÁLISE DOS RESULTADOS PARA AS TRÊS PIORES PERDAS DAS AMOSTRAS........................................................................................................................................... 62
CAPÍTULO 5. CONCLUSÃO ................................................................................................ 67
REFERÊNCIAS BIBLIOGRÁFICAS ..................................................................................... 70
APÊNDICES
vi
RESUMO
O objetivo deste trabalho é inferir o comportamento de valores extremos de uma variável aleatória contínua, sejam eles valores extremos pertencentes à cauda inferior de uma função densidade de probabilidade (fdp), como as severas perdas diárias em investimentos financeiros, ou valores extremos pertencentes à cauda superior de uma fdp, como os elevados dispêndios com indenizações na indústria de seguros. A Teoria dos Valores Extremos (TVE) desempenha papel fundamental na modelagem de eventos gravosos raros, com expressivas conseqüências econômicas associadas a probabilidades muito pequenas de ocorrerem. Uma das grandes preocupações na administração de riscos é desenvolver técnicas de análise para prever essas ocorrências excepcionais. Dessa forma, as caudas da fdp das variáveis que representam esses eventos raros são de grande importância para o estudo do risco, tornando a TVE uma ferramenta de grande valia para a estimação mais acurada do risco dessas perdas elevadas. Investigou-se, neste trabalho, a estimação de perdas máximas esperadas para séries financeiras e para seguros, empregando-se: i) métodos tradicionais, que utilizaram todos os dados amostrais para analisar a variável aleatória em questão; e ii) a metodologia dos Valores Extremos, particularmente a da Distribuição Generalizada dos Valores Extremos (GVE), que utilizou apenas um conjunto de máximos amostrais para a estimação das perdas máximas esperadas. Verificou-se que os métodos tradicionais subestimaram as perdas esperadas, sobretudo nas proximidades dos limites das caudas das distribuições, e que a distribuição GVE mostrou-se bem mais eficiente na previsão dessas perdas extremas em todas as séries analisadas. Palavras-chave: Teoria dos Valores Extremos (TVE), Valor em Risco (VaR), Perdas Extremas, Distribuição Generalizada dos Valores Extremos (GVE).
vii
ABSTRACT
The objective of this work is to infer the behavior of extremes values of a continuous random variable, either extreme values in the down left tail of the probability density function (pdf), like the great daily losses in financial markets investments, or extreme values in the pdf upper right tail, like some great claim sizes in the insurance industry. The Extreme Value Theory (EVT) plays a fundamental role in modeling rare events associated with great losses and very small probabilities of occurrence. One of the great concerns in the risk management is to develop analytic techniques to foresee those exceptions. In that way, the tails of the pdf rare losses are of great importance in evaluating that kind of risk, turning the EVT a valuable tool for an accurate evaluation of high losses risk. In this work, the estimates of expected maximum losses in financial series and in insurance payments were investigated using: i) the traditional methods, that used all the sample data in fitting the random variable pdf; and, ii) the Extreme Value methodology, particularly the Generalized Extreme Value distribution (GEV), that used only a set of maximum values detected in the sample data in estimating the pdf of expected maximum losses. The findings of this study indicate, firstly, an important underestimation of extreme losses with the traditional methods, mainly in the pdf tails limits, and, secondly, that the GEV distribution proved to be more efficient in forecasting the extreme losses in all the analyzed series. Word-key: Extreme Value Theory (EVT), Value-at-Risk (VaR), Extreme Losses, Generalized Extreme Value distribution (GEV).
INTRODUÇÃO
O homem sempre buscou segurança e proteção contra acontecimentos
indesejáveis. Em tempos pré-históricos, as pessoas preocupavam-se com sua integridade
física em decorrência da agressão das forças brutas da natureza. Com o progresso da
civilização, a questão da segurança tem se tornado mais complexa, envolvendo numerosos
riscos novos e incorporando sofisticadas técnicas de estruturação de proteções a esses
riscos.
Há dois tipos principais de riscos econômicos, 1) o risco dos investidores, que
envolve a chance de perda ou de ganho e o 2) risco puro, quando há apenas a chance de
perda. Os negócios de seguro são do tipo riscos econômicos puros, porquanto perder a
vida, ou o carro ou o apartamento não tem a contrapartida de nenhum ganho.
A Teoria dos Valores Extremos – TVE desempenha papel fundamental na
modelagem de eventos associados a probabilidades muito pequenas ou eventos raros para
a quantificação, dentre outras, de grandes riscos econômicos. Vários são os domínios de
aplicação da TVE, tendo como exemplo, as companhias resseguradoras1 que necessitam
prever adequadamente os montantes de grandes indenizações com seguros. O comentário
abaixo evidencia a necessidade do aprimoramento na quantificação de riscos econômicos.
For the first time in the history of our planet, mankind is about to change the climate significantly and possibly irreversibly, without having any idea of the consequences that will have.... With economic and insured losses increasing in volume by a factor of 3 and 5 respectively since the 1960s, we definitely have a trend which, without exaggeration, may be regarded as dramatic. (Munich Re, 1990)2
1 O resseguro pode ser resumidamente definido como o seguro do seguro. É um instrumento de transferência de risco das seguradoras para as resseguradoras com a finalidade de evitar o comprometimento de sua saúde financeira. 2CHAVEZ, V.; ROEHRL, A. Extreme Value Theory can save your neck, 2004. Disponível em <http://www.approximity.com/papers/TVE_wp.pdf>. Acesso em: 25 de janeiro de 2004.
2
A ocorrência de eventos com valores elevados implica certos custos para
remediar suas conseqüências. O terremoto de Kobe, por exemplo, acarretou pagamento de
indenizações entre $100 e $150 bilhões de dólares pelas companhias de seguro.
Souza (1999, p. 41) evidencia a importância da TVE no estudo e
dimensionamento de infra-estrutura de apoio a catástrofes naturais: (...) Um caso bastante citado é o dimensionamento dos diques construídos nos Países Baixos para controlar o avanço do mar. O último grande transbordamento registrado teve conseqüências desastrosas, matando mais de 1800 pessoas em 1953. O trabalho de matemáticos holandeses como Van Dantzig foi decisivo para o avanço tanto da TVE como para o dimensionamento da altura dos diques. O problema nesse caso é: dadas as observações do nível máximo anual observado (o maior deles antes de 1953, quando o nível atingiu 3.85m acima do normal, tinha sido na enchente de 1570, de 4m) qual a maior altura que o nível do mar atingirá nos próximos 10.000 anos (quantil associado à probabilidade de 1-10-4)? Van Dantzig estimou como sendo 5.14m acima do nível de referência Trata-se de um exemplo típico onde é necessário se fazer inferência para eventos de fora do conjunto amostral (...)
O desenvolvimento do mercado financeiro intensificou-se na década de 90
impulsionando a implementação de instrumentos de acompanhamento gerenciais voltados à
nova realidade da globalização. As conseqüências de eventos específicos, como a crise da
Rússia, são difundidas rapidamente no mercado financeiro mundial.
As instituições financeiras mantêm modelo interno de análise de risco de
mercado, com destaque especial para o RiskMetrics, desenvolvido pelo banco americano
J.P. Morgan, que teve como resultado final a técnica de mensuração de riscos conhecida
como Value-at-Risk (VaR).
Morgan (1996, p. 5) refere-se a medida Valor em Risco (VaR) como sinônimo de
risco de mercado: "Over the last few years measures of market risk have become
synonymous with the term Value-at-Risk."
Jorion (1997, p. 18) apresenta o seguinte conceito para o VaR: " O VaR sintetiza
a maior (ou pior) perda esperada dentro de determinado período de tempo e intervalo de
confiança."
Em 1993, o Grupo dos Trinta (G-30), uma equipe composta por banqueiros,
agentes financeiros e acadêmicos importantes das maiores nações industriais, emitiu
relatório contendo uma recomendação importante: a avaliação de posições no mercado e
mensuração de riscos financeiros mediante metodologia de Value-at-Risk (VaR).
3
Sua capacidade de sintetizar, em um único número, a perda financeira esperada
com determinado grau de confiança, foi decisivo para sua recomendação pelo Comitê da
Basiléia como metodologia para alocação de capital em instituições financeiras.
A Teoria dos Valores Extremos contribuiu para o aprimoramento dos modelos de
VaR por concentrar-se no ajuste da distribuição apenas sobre os valores extremos da
variável aleatória, diminuindo, portanto, a influência dos valores centrais. A TVE nos auxilia,
portanto, na estimação das perdas máximas esperadas em momentos de instabilidade. Em
suma, o resultado fundamental da TVE consiste na convergência da distribuição assintótica
de uma série de mínimos (máximos) padronizados.
Objetiva-se, então, neste trabalho: i) aplicar a TVE a amostras de dados financeiros
e dados de pagamento de elevadas indenizações de seguro; e ii) comparar as estimativas
de perdas máximas encontradas a partir da TVE com as estimativas de perdas máximas
encontradas pelas metodologias tradicionais. As metodologias tradicionais, diferentemente
da TVE, estimam perdas esperadas utilizando a amostra total de dados.
O trabalho está organizado da seguinte forma: a esta introdução segue-se no
capítulo 1 uma primeira abordagem geral sobre a TVE. No capítulo 2 são apresentadas as
séries utilizadas para a estimação das perdas esperadas. O capítulo 3 aplica as
metodologias de estimação de perdas máximas discutidas nos capítulos anteriores às
amostras apresentadas no capítulo 2. No capítulo 4 comparam-se as estimativas de perdas
máximas esperadas com as perdas efetivamente ocorridas. Um quinto e último capítulo é
reservado às conclusões.
0,00
0,05
0,10
0,15
0,20
0,25
0,30
0,35
0,40
0,45
-3 -2 -1 0 1 2 3
0,0
0,2
0,4
0,6
0,8
1,0
1,2
1,4
0,0
0,5
1,0
1,5
2,0
2,5
3,0
CAPÍTULO 1. A TEORIA DOS VALORES EXTREMOS
1.1. INTRODUÇÃO
O objetivo deste trabalho é fazer inferências sobre os extremos de uma variável
aleatória, sejam extremos pertencentes à cauda inferior da variável, como mínimos de
retornos diários de ativos financeiros, ou extremos pertencentes a sua cauda superior, como
o valor de uma indenização de sinistro. As figuras 1.1 e 1.2, abaixo, exemplificam situações
diversas para a análise de valores extremos, com baixa probabilidade de ocorrência, que
podem ser mínimos ou máximos de uma variável aleatória em análise.
O propósito do administrador de risco é constituir reservas suficientes para se
resguardar contra esses eventos extremos.
Bautista (2002, p. 3) revela que: Os fundamentos da teoria dos valores extremos foram inicialmente expostos por Fisher & Tippett (1928), que definiram os três tipos possíveis (I,II, III) de distribuições assintóticas dos valores extremos, conhecidas como de Gumbel, Fréchet e Weibull, respectivamente.
ganhos perdas perdas
Figura 1.1. Distribuição de freqüência representativa de retornos financeiros Fonte: Concepção da autora.
Figura 1.2. Distribuição de freqüência representativa da Severidade das perdas com Indenizações de seguro. Fonte: Concepção da autora.
5
O resultado fundamental da Teoria dos Valores Extremos consiste na
convergência da distribuição assintótica de uma série de mínimos ou máximos padronizados
para distribuições pertencentes às seguintes classes de distribuições: i) Distribuição
Generalizada do Valor Extremo - GVE ; ou ii) Distribuição Generalizada de Pareto - DGP.
A Teoria de Valores Extremos, portanto, concentra-se em classes especiais de
distribuições de probabilidade: as distribuições GVE, classe que inclui as distribuições de
Gumbel, de Fréchet e de Weibull, e as distribuições DGP, como a Exponencial, a Pareto e a
Beta. Na forma padronizada, a GVE e a DGP dependem apenas de um parâmetro,
chamado de índice de cauda.
Para as distribuições GVE e DGP utilizam-se, respectivamente, as seguintes
formas de tratar os valores extremos: a primeira abordagem considera máximos (ou
mínimos) selecionados em períodos sucessivos, por exemplo, meses ou anos. Estas
observações selecionadas constituem os eventos extremos. Na figura 1.3, as observações
X2, X5, X7 e X11 representam os máximos para quatro blocos com períodos de três
observações. A segunda abordagem seleciona extremos que excedem um determinado
limite. As observações X1, X2, X7, X8, X9 e X11 na figura 1.4, excedem o limite u e constituem
eventos extremos.
A primeira técnica apresenta a desvantagem da possibilidade, dependendo do
tamanho do bloco, de perder observações extremas dentro do mesmo bloco. Observa-se,
na figura 1.3, que no terceiro bloco desconsidera-se um valor maior que os máximos x2, x5 e
x11. A escolha do tamanho do bloco pode, entretanto, ser realizada de forma objetiva como,
por exemplo, blocos de meses, blocos de anos.
Figura 1.3. Blocos de Máximo Fonte: Manfred Gilli, Evis Kellezi (2003)
Figura 1.4. Excesso ao limite u Fonte: Manfred Gilli, Evis Kellezi (2003)
6
Na segunda técnica, a escolha de um limite suficientemente alto é menos
objetiva. A escolha está sujeita a um trade-off entre variância e viés. Aumentando o número
de observações para as séries de máximos (baixo limite) são introduzidas nas séries
algumas observações do centro da distribuição, tornando a estimativa do parâmetro índice
de cauda mais consistente, porém mais viesada. Por outro lado, escolhendo um limite alto
reduz-se o viés do estimador, tornando-o, entretanto, mais impreciso, em virtude da
utilização de uma menor quantidade de observações para a sua estimação.
Os comentários, a partir deste ponto, referem-se ao máximo, pois os resultados
para o mínimo podem ser obtidos pela relação
mínimo(X1,...,Xn) = - máximo( - X1,..., - Xn) .
Neste trabalho particularizamos a TVE aplicando apenas a distribuição GVE.
1.2. DISTRIBUIÇÃO GENERALIZADA DOS VALORES EXTREMOS - GVE
A Distribuição Normal é uma importante distribuição limite para soma de médias
amostrais, como explicitado no Teorema do Limite Central. Similarmente, a família de
distribuições de valores extremos representa as distribuições limite para os máximos
amostrais, como determinado pelo Teorema de Fisher & Tippett.
Essa família de distribuições de valores extremos determina a forma da
distribuição limite (assintótica) do máximo à medida que a extensão do intervalo de tempo, a
partir do qual o máximo é selecionado, tende para infinito. Segundo Mendes (2004, p. 45), a
função repartição Fx dos máximos GVE, admitindo a hipótese i.i.d para os máximos, foi
introduzida por Jenkinson (1955) e é denotada, em sua forma não padronizada, por,
. 0
x1 onde
0 sexexpexp
0 sex exp
)x(Fx
>⎟⎟⎠
⎞⎜⎜⎝
⎛ −+
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
=⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −−−
≠⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
⎟⎟⎠
⎞⎜⎜⎝
⎛⎟⎠⎞
⎜⎝⎛ −
+−
=
−
σμ
ξ
ξσμ
ξσμξ
ξ1
1 (1.1)
(1.2)
7
Teorema de Fisher&Tippett3 : Seja (Xn) uma seqüência de variáveis aleatórias
i.i.d., se existirem seqüências constantes normalizadoras cn>0 e dn ∈ ℜ e uma distribuição
não degenerada4 H tal que
onde, d→ representa convergência em distribuição; e Mn o máximo selecionada de n
variáveis aleatórias i.i.d, Mn = máx(X1, X2, ... , Xn), então H é do tipo Gumbel, Fréchet ou
Weibull.
Segundo Mendes (2004, p. 34) a prova do teorema pode ser verificada em
Embrechts, Klüppelberg e Mikosch (1997), baseando-se, esta, em propriedades de
transformadas afins, convergência em distribuição e conceito de distribuição do mesmo tipo.
Considerando que, i) valores de máximos são aqueles que se localizam
próximos do limite superior da distribuição de uma variável aleatória X; ii) o comportamento
assintótico de Mn está relacionado com a cauda da distribuição Fx próxima do limite superior
xFx de Fx; e iii) para x<xFx tem-se { } ( )( )nn xFxMPr =≤ . Segue, abaixo, um exemplo de
convergência da distribuição Exponencial para a distribuição de Gumbel retirado de Mendes
(2004, p.34) :
Exemplo: Convergência da distribuição Exponencial unitária para a Gumbel. Suponha que FX seja a distribuição exponencial unitária. Isto é,
xX e)x(F −−=1 . Então ( )nxn
X e)x(F −−= 1 e assim,
{ } ( )( ) .dxcFdxcMPrxc
dMPr n
nnnnnn
nn +⋅=+⋅≤=⎭⎬⎫
⎩⎨⎧
≤−
Fazendo )nln(d e c nn ==1 obtemos
( )( ) ( ) { }.eexpen
e)nln(xF xnn
xn)nln(xn −∞→
−−− −→⎟⎠⎞
⎜⎝⎛ ⋅−=−=+
111
vemos que tomando como constantes normalizadoras cn=1 e dn=ln(n), a distribuição assintótica do máximo coletado em bloco de tamanho n de observações oriundas de uma exponencial unitária será, quando n → ∞ uma distribuição de Gumbel.
3 Para mais detalhes sobre a Teoria dos Valores Extremos ver: MENDES, Beatriz V. de M. Uma Introdução à Analise de Valores Extremos. Rio de Janeiro: E-papers Serviços Editoriais, 2004. 4 Uma distribuição de probabilidade é degenerada quando sua média e variância são iguais a zero.
,Hc
dM d
n
nn →−
8
f(x)
A função densidade de probabilidade da distribuição GVE, para ξ≠0, é encontrada derivando-se a equação (1.1) acima e para ξ=0 derivando-se a equação (1.2), logo:
definidas em, -∞ < x < μ - σ/ξ para ξ<0; μ - σ/ξ < x < +∞ para ξ>0 e -∞ < x < +∞ para ξ→0.
Os parâmetros μ e σ correspondem, respectivamente, a parâmetros de escala e
de tendência; o terceiro parâmetro, ξ, também representado por α=1/ξ, indica a densidade
da cauda. O índice da cauda, α, mede a velocidade com que a cauda da distribuição se
aproxima de zero.
Como já exposto, o parâmetro α, designado de índice da cauda, modela a cauda
da distribuição. De acordo com o valor do índice da cauda, três tipos de distribuições do
valor extremo são obtidos: a distribuição Fréchet (α>0), a distribuição de Gumbel (α=0) e a
distribuição de Weibull (α<0). Este resultado é muito significativo, pois como a distribuição
assintótica do máximo sempre pertence a uma destas três distribuições, qualquer que seja a
distribuição original, nenhuma suposição é necessária sobre a natureza da distribuição
original das observações. Apresentam-se, no Apêndice A, as características das
distribuições GVE.
⎪⎪⎪⎪
⎩
⎪⎪⎪⎪
⎨
⎧
=⎭⎬⎫
⎩⎨⎧
⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −−−⎟
⎠⎞
⎜⎝⎛ −−
≠⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −
+−⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −
+
=
−⎟⎠⎞
⎜⎝⎛ +
−
0 se xexpexpxexp
0 sex expx
)x(f x
ξσμ
σμ
σ
ξσμξ
σμξ
σξξ
ξ
1
11111
(1.3)
(1.4)
Figura 1.5. Função densidade de probabilidade GVE para ξ = - 0,5 (Weibull), ξ → 0 (Gumbel) e ξ = 0,5 (Fréchet) com μ=0 e σ=1. Fonte: Concepção da autora.
9
25,1|8,05,2|4,0
5|2,0
======
αξαξαξ
25,1|8,05,2|4,0
5|2,0
======
αξαξαξ
Figura 1.6. Funções densidade de probabilidade Fréchet com μ=0 e σ=1. Fonte: Concepção da autora.
Figura 1.7. Caudas direitas de funções densidade de probabilidade Fréchet com μ=0 e σ=1. Fonte: Concepção da autora.
25,1|8,05,2|4,0
5|2,0
======
αξαξαξ
25,1|8,05,2|4,0
5|2,0
======
αξαξαξ
10
5|2,05,2|4,025,1|8,0
−=−=−=−=−=−=
αξαξαξ
As figuras 1.6 e 1.7 apresentam os gráficos das funções densidade de
probabilidade Fréchet para ξ = 0,2 ( α = 5), ξ = 0,4 ( α = 2,5) e ξ = 0,8 (α = 1,25) com μ=0 e
σ=1. A figura 1.7 plota, para melhor visualização, as caudas das distribuições de Fréchet
apresentadas na figura 1.6.
A figura 1.8 apresenta as funções densidade de probabilidade Weibull para ξ = -
0,8 ( α = -1,25), ξ = -0,4 ( α =-2,5) e ξ = -0,2 (α = -5) com μ=0 e σ=1.
Observando-se as caudas das distribuições apresentadas nas figuras 1.6, 1.7 e
1.8 nota-se que o índice α determina a velocidade com que as caudas se aproximam de
zero. Observa-se que, quanto menor o índice de cauda α, mais lentamente a cauda da
distribuição se aproxima de zero, possuindo, assim, as distribuições com menores índices α,
caudas mais densas.
Gnedenko5 (1943) apud Bautista (2002, p. 3) afirmou que as caudas das
distribuições GVE podem ser representadas por distribuições contínuas. A cauda da
distribuição de Gumbel corresponde às distribuições exponencial, gama, normal ou log-
5 GNEDENKO, B. V. Sur la distribution limite du terme maximum d´une série aleatoire. Annales des Mathématiques, v.44,p.423-453, 1943.
Figura 1.8. Funções densidade de probabilidade Weibull com μ=0 e σ=1. Fonte: Concepção da autora.
11
∏=
=n
jj )(L)(L
1
θθ
normal, a cauda da distribuição de Fréchet segue uma distribuição de Cauchy, Pareto ou t-
Student e a da distribuição de Weibull segue uma distribuição Uniforme.
Sobre a hipótese de independência dos máximos acrescenta-se a afirmação de
Souza (1999, p. 12): Os retornos extremos, por definição, ocorrem a baixíssimas freqüências, e não seria de se esperar que exibissem dependência temporal. Eventos raros em geral são determinados por circunstâncias muito particulares, e que dificilmente se reproduziriam no futuro. São imprevisíveis e típicos de momentos de crises.
1.3. ESTIMAÇÃO DOS PARÂMETROS DA DISTRIBUIÇÃO GVE
Para a estimação dos parâmetros σμξ ,, da distribuição GVE, utiliza-se, neste
trabalho, a metodologia da função de máxima verossimilhança6.
O método da máxima verossimilhança consiste em adotar como estimador a
estatística que maximiza a probabilidade, ou a densidade de probabilidade de ser
encontrada a amostra observada.
A função de verossimilhança para um conjunto de n observações independentes
é dada por,
onde )(Lj θ é a contribuição da j-ésima observação para a verossimilhança.
Se a j-ésima observação é um evento com probabilidade positiva (como de uma
distribuição discreta ou de um intervalo), então a contribuição é aquela probabilidade – p(x).
Se a j-ésima observação for um valor de uma distribuição contínua, a contribuição é a f.d.p
daquele valor – f(x).
Os estimadores de máxima verossimilhança – EMV são encontrados pela
maximização da função de verossimilhança em relação aos parâmetros desconhecidos da
distribuição GVE. O máximo da função de verossimilhança – )(L θ ocorre no mesmo ponto
que )(Lln θ chamada de função de log-verossimilhança )(θl .
12
( ) ( )( ) ⎟⎟⎠
⎞⎜⎜⎝
⎛== ∏
ii )x(flnx;,,Llnx;,, σμξσμξl
( )
∑
∑∑
∏
∏
=
−
−
==
=
−⎟⎠⎞
⎜⎝⎛ +
−
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −
+−⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −
+⋅⎟⎠⎞
⎜⎝⎛ +
−−=
⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −
+−⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −
+⎟⎠⎞
⎜⎝⎛ +
−−=
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −
+−⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −
+=
⎟⎟⎠
⎞⎜⎜⎝
⎛=
n
i
ii
n
i
in
i
i
n
i
ii
xxlnln
xxlnlnn
x expxln
)x(flnx;,,
1
1
1
11
1
11
111
111
111
ξ
ξ
ξξξ
σμξ
σμξ
ξξσ
σμξ
σμξ
ξξσ
σμξ
σμξ
σ
σμξl
As estimativas dos parâmetros são, para a distribuição GVE, encontradas
utilizando-se a função de log-verossimilhança dada por:
onde: )x(f i é dada pela equação (1.3) ou (1.4).
Para as distribuições de Fréchet e Weibull, representadas pela equação (1.3),
desenvolve-se a seguinte função log-verossimilhança:
Os estimadores de máxima verossimilhança são, então, obtidos pela solução do
sistema de equações não lineares formado pelas derivadas de primeira ordem da equação
(1.6), em relação a cada parâmetro σμξ ,, , derivadas estas igualadas a zero. Referido
sistema de equações está apresentado abaixo.
6 O princípio da verossimilhança afirma que devemos escolher aquele valor do parâmetro desconhecido que maximiza a probabilidade de se obter a amostra particular observada, ou seja, o valor que torna aquela amostra a “mais provável”.
(1.5)
(1.6)
13
( )
∑
∏
∏
=
=
⎭⎬⎫
⎩⎨⎧
⎟⎠⎞
⎜⎝⎛ −−−⎟
⎠⎞
⎜⎝⎛ −
−−=
⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
⎭⎬⎫
⎩⎨⎧
⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −−−⎟
⎠⎞
⎜⎝⎛ −−⋅=
⎟⎟⎠
⎞⎜⎜⎝
⎛=
n
i
ii
n
i
ii
xexpxln
xexpexpxexpln
)x(flnx;,,
1
1
1
σμ
σμσ
σμ
σμ
σ
σμξl
( ) ( )
( ) ( )∑
∑
∑
=
−
=
−
=
−
=⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
⋅−
−⎥⎦
⎤⎢⎣
⎡⋅⋅−
−⎟⎟
⎠
⎞
⎜⎜
⎝
⎛−
=
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧⎥⎦
⎤⎢⎣
⎡ −+−+−
=⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛ −+
n
i i
i
i
ii
ˆi
n
i i
ˆii
n
i
i
wˆˆx
wˆˆˆx
wlnˆw
w
wˆˆx
ˆˆn
ˆwˆ
ˆ
12
1
1
1
2
1
1
011
01
1
011
σμ
σξμ
ξ
ξμ
σσ
σξ
σ
ξ
ξ
ξ
onde: ⎟⎟⎠
⎞⎜⎜⎝
⎛ −+=
σμ
ξ ˆˆxˆw i
i 1
Como o sistema de equações acima não possui solução analítica, devem-se
utilizar métodos numéricos para obtenção da solução.
Para a distribuição de Gumbel, representada pela equação (1.4), temos a seguir
i) a função log-verossimilhança, e ii) o sistema de equações para estimação dos parâmetros
μ e σ.
i) função log-verossimilhança:
ii) sistema de equações não-lineares para estimação dos parâmetros da
distribuição GVE ⎯ Gumbel:
01
01
1
1
=⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
−⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
⎥⎥⎦
⎤
⎢⎢⎣
⎡⎟⎟⎠
⎞⎜⎜⎝
⎛ −−⋅⎟⎟
⎠
⎞⎜⎜⎝
⎛ −−⎟⎟
⎠
⎞⎜⎜⎝
⎛ −
=⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
−⎥⎥⎦
⎤
⎢⎢⎣
⎡⎟⎟⎠
⎞⎜⎜⎝
⎛ −−−
∑
∑
=
=
nˆˆx
expˆˆx
ˆˆx
ˆ
nˆˆx
ˆ
n
i
iii
n
i
i
σμ
σμ
σμ
σ
σμ
σ
14
x
f(x)
x =Q(p)
área p
Figura 1.9. Representação gráfica do p-quantil Q(p). Fonte: Concepção da autora.
A estimação dos parâmetros da distribuição GVE é, neste trabalho, realizada
utilizando-se uma rotina do software EVIM7 desenvolvida em MATLAB R11. Referida rotina
encontra os parâmetros da distribuição GVE pelo método numérico de Newton-Raphson.
Podem, entretanto, ocorrer situações de não convergência na estimação dos parâmetros da
distribuição GVE, sendo que Smith8 (1985) apud Mendes (2004, p.46), afirma que os
Estimadores de Máxima Verossimilhança – EMV mantém boas qualidades quando ξ > -0,5.
Esta afirmação é importante, pois, segundo EMBRECHTS (1999) é comum em aplicações
de seguro encontrarem-se valores de α no intervalo (1;2) – que corresponde ao intervalo
(0,5;1) para ξ – enquanto em Finanças, α situa-se no intervalo (2;5) – que corresponde ao
intervalo (0,20;0,5) para ξ , cujas áreas são objeto deste estudo.
1.4. ESTIMATIVA DE QUANTIS DA DISTRIBUIÇÃO GVE
Define-se a medida estatística quantil ou p-quantil da variável aleatória X,
indicada por Q(p), como o valor que satisfaz as relações, p))p(QX(P ≥≤ e
p))p(QX(P −≥≥ 1 , onde 0<p<1.
O p-quantil é, então, o valor tal que a soma das probabilidades dos valores
menores do que ele é igual a p. A figura 1.9, a seguir, representa graficamente a estatística
p-quantil para uma distribuição contínua.
7 EVIM v1.0 é um pacote gratuito contendo funções, desenvolvidas em MATLAB, para a análise de valores extremos. Este pacote pode ser encontrado em http://www.bilkent.edu.tr/ ~faruk. 8 Smith, R. L. Maximum Likelihood Etimation in a class of nonregular cases. Biometrika, n. 72, p. 67-90. 1985.
15
( )pFx ˆ,ˆ,ˆp1−= σμξ
( )[ ]1
1
1
1
1
1
1
−−+=
⎟⎟⎠
⎞⎜⎜⎝
⎛⎟⎟⎠
⎞⎜⎜⎝
⎛ −+=−
⎟⎟⎠
⎞⎜⎜⎝
⎛⎟⎟⎠
⎞⎜⎜⎝
⎛ −+−=
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
⎟⎟⎠
⎞⎜⎜⎝
⎛⎟⎟⎠
⎞⎜⎜⎝
⎛ −+−=
−
−
−
−
ξ
ξ
ξ
ξ
ξσμ
σμ
ξ
σμ
ξ
σμ
ξ
)pln(ˆˆˆx
ˆˆx
ˆ)pln(
ˆˆx
ˆ)pln(
ˆˆx
ˆexpp
p
ˆp
ˆp
ˆp
Considerando que as observações extremas seguem uma distribuição GVE, o p-
quantil da distribuição GVE é definido como
Para a equação (1.1) apresentada anteriormente temos
1.5. TEORIA DOS VALORES EXTREMOS APLICADA AO VALUE-AT-RISK (VaR)
O final da última década caracterizou-se pela ocorrência de significativas crises
financeiras no mercado financeiro internacional. Esses acontecimentos demandaram a
existência de sistemas de gerenciamento de risco que utilizem metodologias apropriadas
para a estimação de eventos raros e com conseqüências financeiras elevadas. Com isso, a
TVE experimentou um boom no campo financeiro nos últimos tempos.
As instituições financeiras mantêm um modelo interno de análise de risco de
mercado, com destaque especial para o RiskMetrics, desenvolvido pelo banco americano
J.P. Morgan, que teve como resultado final a técnica de mensuração de riscos conhecida
como Value-at-Risk (VaR).
O VaR — valor em risco — é a perda máxima esperada, em valor monetário, e
sob condições normais de mercado, de um título, de uma carteira ou de uma instituição,
dado um determinado nível de confiança e um horizonte de tempo especificado.
(1.7)
16
( )[ ]1−−+= −ξ
ξσμ )pln(ˆˆˆVaRextremo
Segundo JORION (1998, p. vii), o VaR pode ser descrito como:
“VaR é um método de mensuração de risco que utiliza técnicas estatísticas padrões, comumente usadas em outras áreas técnicas. Em linguagem formal, o VaR mede a pior perda esperada ao longo de determinado intervalo de tempo, sob condições normais de mercado e dentro de determinado nível de confiança. Com base em fundamentos científicos, o VaR fornece aos usuários uma medida concisa do risco de mercado”.
Para MORGAN (1996, p. 6) "VaR answers the question: how much can I lose
with x% probability over a given time horizon."
A Teoria de Valores Extremos contribuiu para o aprimoramento dos modelos de
VaR por concentrar-se no ajuste da distribuição apenas sobre os valores extremos da
variável aleatória, diminuindo, portanto, a influência dos valores centrais. A TVE vem ao
encontro da necessidade de se possuir um sistema adequado de controle de risco para
prevenir catástrofes financeiras em momentos de crise. Estudos empíricos verificaram o fato
de que distribuições de retornos de séries financeiras costumam apresentar caudas mais
pesadas do que as de uma distribuição normal. As metodologias tradicionais de cálculo do
VaR, contudo, em geral supõem normalidade, seja condicional ou não condicional, e não
acomodam satisfatoriamente as ocorrências extremas da distribuição dos retornos.
Pelo exposto, o VaR é determinado pelo p-quantil da distribuição dos retornos de
um ativo ou de uma carteira de ativos financeiros. Utilizando a TVE para representar a
distribuição dos retornos extremos, o VaR Extremo é definido como o p-quantil estimado a
partir da distribuição dos valores extremos, GVE.
De forma particular, o VaR, estimado utilizando-se a Teoria dos Valores
Extremos e presumindo-se que a distribuição dos retornos extremos segue uma distribuição
GVE, é encontrado a partir da equação (1.7), que determina o p-quantil da distribuição GVE.
A equação para o VaR extremo é, então,
(1.8)
17
1.6. TEORIA DOS VALORES EXTREMOS APLICADA AO MERCADO DE SEGUROS
O risco associado a um contrato de seguros deve ser estudado através da
variável aleatória, S, que compõe a equação 1.9, representando o montante total dos
desembolsos a que o segurador está exposto em decorrência dos eventuais sinistros
garantidos pelo contrato de seguro. No Modelo de Risco Coletivo, o montante agregado das
indenizações, S, é representado por
onde:
N(t) representa o número de pagamentos de indenizações até o tempo t, e
Xi o valor do pagamento da i-ésima indenização de seguro.
O modelo de risco coletivo gera reclamações de indenizações para o conjunto
das apólices de um portfólio. Para aplicar os modelos de risco coletivo necessitamos de
informações sobre a distribuição do número de indenizações, N, e da distribuição da
severidade individual dessas indenizações, X.
Dessa forma, a variável perda agregada para grupos fechados, S(t), é
representada pela soma dos montantes, Xi’s, do número total de reclamações de
indenizações de sinistros, N(t), em cada período de cobertura.
A variável aleatória S(t) representa, assim, o montante agregado periódico das
indenizações de sinistros gerados por um portfólio. O número de indenizações, N(t), é a
variável aleatória associada com a freqüência de reclamações de indenizações, e os Xi’s,
são, também, variáveis aleatórias que representam a severidade das indenizações.
A distribuição de severidade individual das reclamações de indenizações de
sinistros é costumeiramente descrita por uma distribuição contínua, com as seguintes
características:1) as indenizações de sinistros são sempre positivas; e 2) possuem forma
assimétrica positiva.
Como exemplo da variável aleatória X, têm-se a linha de seguros de incêndio, na
qual os eventos são incêndios em uma edificação segurada, que resultam em perdas
.t ,XXX)t(S )t(N 021 ≥+++= L (1.9)
18
econômicas. Devido aos incêndios causarem geralmente grandes danos, devem ser
escolhidas distribuições de severidade adequadas para esta situação. Segundo Bowers
(1997, p. 436), na literatura atuarial, algumas distribuições padrão são sugeridas:
Distribuição Lognormal – bastante utilizada para representar a severidade das
perdas. Sua cauda medianamente espessa à direita pode ajustar-se
satisfatoriamente a diversas situações.
Distribuição de Pareto – A distribuição de Pareto é utilizada para grandes
dispersões devido a sua cauda acentuadamente espessa.
O segurador deve conhecer o comportamento de suas perdas aleatórias futuras,
S(t), para quantificar de forma adequada o valor a ser cobrado como prêmio. Como
comentado acima, a variável aleatória Xi, montante da indenização de sinistro, pode ser
representada, por exemplo, por distribuições contínuas de caudas espessas e
medianamente espessas como a Pareto e a Lognormal, as caudas das referidas
distribuições determinam a probabilidade de perdas elevadas ou extremas. Referidas perdas
extremas podem acarretar a insolvência do segurador, se não existir capital suficiente. O
segurador preocupa-se, portanto, em estimar de forma adequada a distribuição de
severidade das perdas para manter sua atividade seguradora solvente.
O modelo clássico de risco para a atividade seguradora em tempo contínuo é um
processo estocástico {U(t),t ≥0}:
onde:
U(t) = reserva de risco (capital do segurador) de uma carteira no instante t;
u = U(0) = capital inicial do segurador;
p = prêmio com carregamento por unidade de tempo.
A figura 1.10, a seguir, representa uma possível trajetória do processo de risco.
.t ),t(Sptu)t(U 0≥−+= (1.10)
19
A figura 1.11 traz uma analogia simplificada do processo de risco descrito na
equação 1.10. A Reserva, U(t), é representada pelo nível do reservatório, nível este que se
deseja manter sempre positivo. Com esse propósito, deve-se quantificar de forma adequada
as entradas determinísticas, os prêmios e as saídas probabilísticas, que são os pagamentos
de indenizações. Ressalte-se que a quantificação adequada dos prêmios depende da
estimação das indenizações. São ignorados, no modelo em tela, outros fatores distintos dos
prêmios e do pagamento das indenizações, tais como o retorno dos investimentos em
mercado e as despesas administrativas.
As distribuições de perdas Xi são tradicionalmente ajustadas utilizando-se a
amostra completa de dados. A TVE, como já se verificou, ajusta uma distribuição de
probabilidades apenas aos valores extremos da amostra de dados, buscando, assim,
Figura 1.10. Realização do Processo de Risco U(t). Fonte: KAAS et al. Modern Actuarial Risk Theory. P. 84.
Figura 1.11. Analogia Simplificada do Processo de Reserva de Risco. Fonte: STRAUB, Erwin. Non-life Insurance Mathematics. p.8.
Nível no instante t = reservas iniciais + prêmios acumulados - pagamento de indenizações
Fluxo de Saída = Indenizações
Fluxo de Entradas = Prêmios
U(t)
T1 T2 T3 T4=T T5
0
u
t
20
melhores estimativas para as indenizações catastróficas. A estimação da perda aleatória X,
pela Teoria dos Valores Extremos, para um determinado percentil, é encontrada aplicando-
se uma distribuição GVE pela equação 1.7 acima.
As indenizações catastróficas são, entretanto, geralmente repassadas em parte,
ou no todo, para companhias resseguradoras, que operam contratos de resseguro. O
resseguro é a operação na qual um segurador,,denominado ressegurado ou companhia
cedente, transfere a outro segurador, o ressegurador, uma parte do risco assumido em um
contrato de seguro, pagando por esta cobertura um valor previamente combinado, o prêmio.
O ressegurador está sujeito ao mesmo processo de risco, apresentado na figura 1.10, com
pagamentos de indenizações agora determinados por indenizações vultosas.
Uma companhia seguradora possui limites para aceitação de riscos definidos
pela própria entidade ou por normas governamentais. Para não prejudicar sua atividade
comercial, a seguradora retém riscos superiores a estes limites, transferindo parte das suas
responsabilidades para companhias resseguradoras.
Com a contratação de resseguro, o segurador pode absorver com maior
facilidade os impactos negativos advindos da ocorrência de eventos catastróficos, como
furacões, tornados, que poderiam levar a entidade à insolvência. Após a contratação do
resseguro as indenizações catastróficas ficam na responsabilidade do ressegurador de
acordo com o determinado em contrato. O ressegurador, portanto, necessita de forma mais
premente da quantificação adequada de perdas extremas, tornando a TVE de vital
importância para a atividade resseguradora.
A aplicação mais importante da TVE no campo de seguro é provavelmente na
área de resseguro.
Pelo exposto, podemos afirmar que, no mercado financeiro e no mercado de
seguros, revela-se uma preocupação comum: a necessidade premente de quantificar de
forma adequada reservas para suportar perdas extremas.
CAPÍTULO 2. DESCRIÇÃO DAS SÉRIES UTILIZADAS
2.1. INTRODUÇÃO
Neste trabalho, utilizam-se as seguintes amostras de dados:
Séries financeiras referentes a índices de bolsa, no período compreendido
entre 30/12/1993 e 20/11/2003 inclusive, adquiridas na base de dados do
Economática:
1. Ibovespa: série de 2.447 índices diários de fechamento da Bovespa;
2. Merval: série de 2.451 índices diários de fechamento Merval;
3. Down Jones: série de 2.491 índices diários de fechamento Down
Jones.
A partir dos índices diários das três séries em pauta determinaram-se seus
retornos diários respectivos pela equação: Rt=ln(Pt/Pt-1), onde Pt
corresponde ao índice no instante t.
Série de dados de seguro de incêndio da indústria de seguros da
Dinamarca, no período compreendido entre 1980 e 1990 inclusive,
consistindo em 2.167 perdas acima de 1 milhão de Coroas Dinamarquesas,
adquirida na base de dados do Software Evim.
As séries de retornos e a série de perdas serão analisadas neste capítulo, no
qual se apresenta seu comportamento gráfico, suas estatísticas descritivas e, por fim,
busca-se encontrar a distribuição contínua de probabilidades que melhor se ajusta aos
dados amostrais. Os resultados aqui presentes foram realizados com o auxílio do Software
Bestfit versão 4.5.
22
O Software Bestfit disponibiliza várias distribuições discretas e contínuas de
probabilidade para realização de ajuste aos dados amostrais, estimando seus parâmetros e
testando a adequação do ajuste. Dentre as distribuições contínuas ⎯ área de interesse para
este trabalho ⎯ as mais conhecidas contidas nesse software são:
1. Beta
2. Erlang
3. Exponencial
4. Gamma
5. Logística
6. Loglogística
7. Lognormal
8. Normal
9. Pareto
10.Pearson tipo V e VI
11.Qui-quadrado
12.Rayleigh
13.t-Student
14.Triangular
15.Uniforme
16.Weibull
O Bestfit realiza o rank dos ajustes das distribuições utilizando os testes
estatísticos: Qui-quadrado, Kolmogorov-Smirnov(K-S) e o Anderson-Darling(A-D).
Apresentam-se, a seguir, os ajustes utilizando o rank decorrente dos testes K-S e A-D.
Referidos testes são os mais apropriados a dados contínuos, ressaltando que: i) o teste K-S
foca o centro da distribuição, não detectando muito bem discrepâncias nas caudas;
enquanto o teste A-D realça as diferenças nas caudas entre a distribuição ajustada e a
distribuição empírica.
Para as séries supra referidas apresenta-se a distribuição que obteve o 1º lugar
no rank pelos testes K-S e A-D, quando os resultados para os dois testes são discrepantes
dá-se preferência ao teste A-D, pois, o propósito deste trabalho é a estimação de valores
pertencentes à cauda da distribuição sob análise. Para as séries financeiras, apresenta-se
adicionalmente, o ajuste pela distribuição Normal, por ser esta uma aproximação largamente
utilizada para representar retornos de séries financeiras.
2.2. QUALIDADE DOS AJUSTES DE DISTRIBUIÇÕES TEÓRICAS
A qualidade dos ajustes de distribuições teóricas aos dados amostrais será
analisada, no decorrer deste trabalho, por i) procedimentos gráficos como : gráfico da
distribuição empírica versus teórica ajustada; gráfico Probabilidade-Probabilidade (P-P);
gráfico Quantil-Quantil (Q-Q); e ii) testes de adequação como: teste Kolmogorov-Smirnov e
Anderson-Darling. Apresentam-se, a seguir, estes procedimentos com mais detalhe.
23
2.2.1. Procedimentos gráficos 2.2.1.1. Comparação de freqüências
Para dados contínuos, a comparação de freqüências é uma comparação gráfica
do histograma dos dados amostrais, distribuição empírica, com a função densidade )x(f
da distribuição contínua ajustada. Se a distribuição ajustada representa bem o
comportamento dos dados amostrais, o gráfico da distribuição teórica ajustada deve ser
semelhante ao gráfico da distribuição empírica.
2.2.1.2. Gráfico Probabilidade-Probabilidade (P-P)
Um gráfico P-P é a representação gráfica da função distribuição ajustada )x(F
versus a probabilidade acumulada amostral )x(F~ . Se )x(F e )x(F~ possuem o mesmo
comportamento, então o gráfico P-P será linear. 2.2.1.3. Gráfico Quantil-Quantil (Q-Q)
Um gráfico Q-Q é a representação gráfica dos quantis advindos da distribuição
ajustada )x(F versus os quantis da distribuição amostral )x(F~ . Se )x(F e )x(F~ possuem
o mesmo comportamento, então o gráfico Q-Q será linear.
O gráfico Q-Q amplifica as diferenças existentes entre as caudas das
distribuições teóricas ajustadas e as caudas das distribuições empíricas amostrais, o gráfico
P-P, diferentemente, amplifica as diferenças existentes no centro das distribuições )x(F e
)x(F~ . A figura 2.1 mostra, no painel esquerdo, a diferença existente na cauda direita das
distribuições ser amplificada no gráfico Q-Q, o que não ocorre no gráfico P-P.Como outro
exemplo, temos o painel direito da figura 2.1 que apresenta a diferença existente no centro
das distribuições ser amplificada pelo gráfico P-P.
24
2.2.2. Teste de Adequação dos Ajustes9
Apresentam-se, nesta seção, dois testes de aderência para avaliar a adequação
do ajuste de uma determinada distribuição teórica aos dados amostrais. As hipóteses dos
testes são:
Hipótese nula: A distribuição teórica populacional representa o comportamento
da distribuição amostral;
Hipótese alternativa: A amostra não provém da distribuição teórica ajustada.
9 Mais detalhes sobre os testes podem ser encontrados em: LAW, A. M. e KELTON W. D. Simulation Modeling & Analysis.1991. p. 387.
)x(F)x(F~
Distribuição ajustada
Distribuição amostral
)x(F
)x(F~
Distribuição amostral
Distribuição ajustada
Funções Distribuição
Gráfico Q-Q
Gráfico P-P
Figura 2.1. Exemplos de gráficos P-P e Q-Q. Fonte: LAW, A. M. e KELTON W. D. Simulation Modeling & Analysis.1991. p. 377 e 378.
Quantil amostral
Quantil ajustado
Quantil amostral
Quantil ajustado
)x(F
)x(F~ )x(F~
)x(F
25
2.2.2.1 Teste Kolmogorov-Smirnov (K-S)
O teste Kolmogorov-Smirnov é um teste de aderência que compara a função
distribuição empírica acumulada )x(F~ com a função distribuição teórica ajustada )(ˆ xF , ou
seja, mede o grau de concordância entre a distribuição de um conjunto de valores amostrais
e determinada distribuição teórica específica. O teste determina, então, se os valores da
amostra podem ser considerados como provenientes de uma população com determinada
distribuição teórica. A distribuição teórica representa o que se poderia esperar sob Ho.
A estatística do teste K-S será obtida pela maior distância vertical entre as
distribuições observada )x(F~ e teórica )(ˆ xF para todos valores de x , e a definição formal
é dada por |)x(F)x(F~|maxD nn −= . O valor calculado nD é confrontado com o valor crítico
tabelado c , caso nD seja menor que c não se pode rejeitar 0H a um nível de significância
α , ou seja, a diferença máxima pode ser atribuída ao acaso. De igual forma, se o p-value
for superior ao nível α de significância não se pode rejeitar a hipótese H0. O p-value
representa a probabilidade de ocorrer valores da estatística mais extremos que o observado
sob a hipótese de H0 ser verdadeira, ( )0n HDDProbvaluep >=− . O p-value, o nível de
significância observado, é uma medida de plausibilidade dos resultados da amostra
considerando a hipótese nula como verdadeira. Quanto menor o valor do p-value, menor é a
possibilidade da amostra provir de uma população onde a hipótese nula é verdadeira. A
maioria dos softwares fornece o p-value associado a um teste de hipóteses, com isso é
possível obter uma conclusão sobre o teste sem se referir a uma tabela estatística.
A utilização do teste Kolmogorov-Smirnov apresenta algumas características
relevantes: i) não requer agrupamento de dados, ou seja, nenhuma informação é perdida;
ii) possui desempenho satisfatório com qualquer número de informações; e iii) é poderoso
para o trabalho com distribuições contínuas.
2.2.2.2 Teste Anderson-Darling (A-D)
O teste Anderson-Darling também é um teste de aderência que compara a
função distribuição empírica acumulada )x(F~ com a função distribuição teórica
ajustada )(ˆ xF , ou seja, determina se os valores da amostra podem ser considerados como
provenientes de uma população com determinada distribuição teórica. Como apresentado
acima, o teste K-S pondera de igual forma as diferenças |)x(F)x(F~| n − para todos os
26
valores de x. O teste A-D, de outra forma, é desenhado para detectar discrepâncias nas
caudas com maior poder que o teste K-S, pois atribui maior peso as diferenças próximas às
caudas das distribuições. A estatística do teste é dada por:
[ ] dx)x(f)x()x(F)x(F~nA2
n2n ψ∫
∞
∞−−=
onde:
[ ]( ))x(F1)x(F
1)x(
−⋅=ψ é a função de ponderação das diferenças;
)x(F~n é a função distribuição ou função de probabilidade acumulada da amostra
de tamanho n;
)x(F é a função distribuição ou função de probabilidade acumulada da
distribuição teórica ajustada;
)x(f é a função densidade de probabilidade da distribuição teórica ajustada.
O valor calculado 2nA é confrontado com o valor crítico tabelado α−1,na , caso o
valor da estatística calculado seja menor que o valor crítico, não se pode rejeitar 0H a um
nível de significância α . Alternativamente, a conclusão sobre o teste pode ser realizada
através do p-value. Se o p-value for superior ao nível α de significância não se pode rejeitar
a hipótese H0. As conclusões sobre os testes de hipóteses, neste trabalho, são realizadas
comparando-se o p-value com o nível de significância estipulado previamente.
2.3. SÉRIE IBOVESPA
Nos Gráficos 2.1 e 2.2 plotam-se, respectivamente, a evolução do Ibovespa e o
comportamento dos retornos no período sob análise. Os retornos diários oscilam no
intervalo de -17,2% a 28,8%.
02.0004.0006.0008.000
10.00012.00014.00016.00018.00020.000
-0,30
-0,20
-0,10
0,00
0,10
0,20
0,30
Gráfico 2.1. Evolução do Ibovespa Gráfico 2.2. Retornos Ibovespa
27
A Tabela 2.1 revela que a distribuição Logística foi classifica como o melhor
ajuste pelos testes K-S e A-D, apresentando esta dentre todas as distribuições contidas no
Software Bestfit menor discrepância em relação à distribuição amostral. O ajuste da
distribuição Normal aos dados empíricos obteve apenas o 11º lugar, o último lugar, pois
apenas 11 distribuições apresentaram ajustes válidos. Todas as distribuições contínuas
ajustadas, incluindo-se a distribuição Logística, que obteve as menores discrepâncias, foram
rejeitadas pelos testes em questão considerando que todos os valores da estatística p-value
resultaram menores que 5%.
Na tabela 2.2, observam-se as estatísticas descritivas da amostra e das
distribuições ajustadas, revelando que a distribuição Normal possui curtose bem inferior em
relação à curtose apresentada pelos dados amostrais. Ressalte-se que a hipótese de
Normalidade dos retornos, amplamente utilizada como aproximação para distribuição de
retornos no cálculo do VaR, apresentou-se como inadequada.
Tabela 2.1. Resultados Ajuste Ibovespa Descrição Ajuste Logística Ajuste Normal
A-D K-S A-D K-S Test Value 3,214 0,02421 +∞ 0,06708 P Value <0,05 <0,05 <0,05 <0,05 Rank 1 1 11 5 Fonte : Cálculos realizados no Software Bestfit. Tabela 2.2. Estatísticas Ajuste Ibovespa Descrição Amostra Ajuste Logística Ajuste Normal
Média 0,0016 0,0016 0,0016Desvio-padrão 0,0279 0,0255 0,0279Assimetria 0,5739 0 0Curtose 12,563 4,2 3Fonte: Cálculos realizados no Software Bestfit
Os gráficos 2.3 e 2.4 apresentam visualmente o ajuste pela distribuição Logística
e Normal. Verifica-se, como revelado acima, um melhor ajuste da distribuição Logística em
detrimento à distribuição Normal.
A forma quase linear, apresentada no gráfico 2.5, revela o melhor ajuste nas
caudas pela distribuição Logística comparado ao gráfico 2.6, que apresenta um elevado
grau de discrepância nas caudas em relação à distribuição empírica.
28
g p g
0
2
4
6
8
10
12
14
16
18
20
-0,2
0
-0,1
5
-0,1
0
-0,0
5
0,00
0,05
0,10
0,15
0,20
0,25
0,30
0,35
Inpu
tFi
tg ( , ; , )
Fitte
d p-
valu
e
Input p-value
0,0
0,2
0,4
0,6
0,8
1,0
0,0
0,2
0,4
0,6
0,8
1,0
g p
0
2
4
6
8
10
12
14
16
18
20
-0,2
0
-0,1
5
-0,1
0
-0,0
5
0,00
0,05
0,10
0,15
0,20
0,25
0,30
0,35
Inpu
tFi
t
( , ; , )
Fitte
d p-
valu
e
Input p-value
0,0
0,2
0,4
0,6
0,8
1,0
0,0
0,2
0,4
0,6
0,8
1,0
0,0
0,1
0,2
0,3
0,4
0,5
0,6
-0,1
10
-0,1
05
-0,1
00
-0,0
95
-0,0
90
-0,0
85
-0,0
80
-0,0
75
-0,0
70
Norm
alLo
gist
ic
Gráfico 2.3. Histograma Amostra Ibovespa x Ajuste Logística
Gráfico 2.4. Histograma Amostra Ibovespa x Ajuste Normal
Gráfico 2.5. Gráfico PP Amostra Ibovespa x Ajuste Logística
Gráfico 2.6. Gráfico PP Amostra Ibovespa x Ajuste Normal
Gráfico 2.7. Cauda Esquerda Ibovespa Ajuste Logística x Ajuste Normal
29
Vale ressaltar que, a distribuição Logística também é uma distribuição simétrica
como a Normal, possuindo, entretanto, maior coeficiente de curtose quando comparada com
a Normal. Esta característica, de maior achatamento - caudas mais pesadas verificada no
gráfico 2.7 - da distribuição Logística, se revelou mais adequada aos dados dos retornos
passados da série financeira aqui analisada. O melhor ajuste da distribuição Logística em
detrimento à Distribuição Normal pode ser observado na tabela 2.2 e nos gráficos 2.3, 2.4,
2.5 e 2.6.
Tabela 2.3. Quantis Empíricos da cauda Esquerda do Ibovespa x Quantis Estimados
Quantil cauda esquerda – Ibovespa Descrição 10% 5% 2,5% 1% 0,10% 0,01%
Empírica -0,02853 -0,04004 -0,05215 -0,07489 -0,11194 -0,17229Logística -0,02930 -0,03979 -0,04989 -0,06297 -0,09543 -0,12778Normal -0,03409 -0,04421 -0,05299 -0,06320 -0,08448 -0,10200Dif. Logística 2,7% -0,6% -4,3% -15,9% -14,7% -25,8%Dif. Normal 19,5% 10,4% 1,6% -15,6% -24,5% -40,8%Fonte: Cálculos realizados no Software Bestfit .
A tabela 2.3 apresenta os quantis observados pela distribuição empírica dos
retornos da série do Ibovespa comparados aos quantis estimados pelo ajustes das
distribuições Logística e Normal. Observa-se que as distribuições ajustadas superestimam
os quantis mais elevados e subestimam os quantis à medida que se aproximam da cauda
esquerda da distribuição. Ressaltem-se as diferenças elevadas encontradas pela
distribuição Normal, tanto para quantis distantes ou mais próximos da cauda esquerda.
Pelo exposto, apesar da rejeição da distribuição Logística, necessita-se de uma
distribuição contínua para representar os retornos e estimar quantis fora da amostra
observada de dados, pois, para uma determinada amostra de dados de tamanho n os
quantis inferiores a 1/n não podem ser estimados a partir da distribuição empírica. Pelo
exposto, elege-se a distribuição Logística como distribuição contínua representativa dos
retornos da série Ibovespa.
2.4. SÉRIE MERVAL
Nos Gráficos 2.8 e 2.9 plotam-se, respectivamente, a evolução do índice Merval
e o comportamento dos retornos no período sob análise. Os retornos diários oscilam no
intervalo de -14,8% a 16,1%.
30
-0,20
-0,15-0,10
-0,050,00
0,05
0,10
0,15
0,20
0100200300400500600700800900
1.000
A tabela 2.4 revela que a distribuição Logística foi classifica como o melhor
ajuste pelos testes K-S e A-D. O ajuste da distribuição Normal aos dados empíricos obteve o
2º lugar dentre os ajustes válidos considerados válidos. A distribuição Logística, que obteve
as menores discrepâncias, e a distribuição Normal foram rejeitadas pelos testes K-S e A-D,
pois todos os valores da estatística p-value resultaram menores que 5%.
Na tabela 2.5, observam-se as estatísticas descritivas da amostra e das
distribuições ajustadas, revelando que a distribuição Normal possui curtose bem inferior em
relação à curtose apresentada pelos dados amostrais. Ressalte-se que, como verificado na
série anterior, a hipótese de Normalidade dos retornos, amplamente utilizada como
aproximação para distribuição de retornos no cálculo do VaR, apresentou-se inadequada.
Tabela 2.4. Resultados Ajuste Merval Descrição Ajuste Logística Ajuste Normal
A-D K-S A-D K-S
Test Value 7,801 0,038 33,83 0,077 P Value <0,05 <0,05 <0,05 <0,05 Rank 1 1 2 2 Fonte : Cálculos realizados no Software Bestfit Tabela 2.5. Estatísticas Ajuste Merval Descrição Amostra Ajuste Logística Ajuste Normal
Média 0,0002 0,0005 0,0002Desvio-padrão 0,025 0,023 0,025Assimetria -0,14 0 0Curtose 7,64 4,2 3Fonte: Cálculos realizados no Software Bestfit
Gráfico 2.8. Evolução do índice Merval Gráfico 2.9. Retornos Merval
31
Fitte
d p-
valu
e
Input p-value
0,0
0,2
0,4
0,6
0,8
1,0
0,0
0,2
0,4
0,6
0,8
1,0
( , ; , )
Fitte
d p-
valu
e
Input p-value
0,0
0,2
0,4
0,6
0,8
1,0
0,0
0,2
0,4
0,6
0,8
1,0
0
5
10
15
20
25
-0,2
0
-0,1
5
-0,1
0
-0,0
5
0,00
0,05
0,10
0,15
0,20
Inpu
tFi
t
0
5
10
15
20
25
-0,2
0
-0,1
5
-0,1
0
-0,0
5
0,00
0,05
0,10
0,15
0,20
Inpu
tFi
t
Os gráficos 2.10 e 2.11 apresentam visualmente o ajuste pela distribuição
Logística e Normal. Verifica-se, como revelado acima, um melhor ajuste da distribuição
Logística em detrimento à distribuição Normal. As discrepâncias apresentadas nas caudas
pelos ajustes realizados podem ser verificadas nos gráficos 2.12 e 2.13, observa-se pelo
gráfico 2.12 o melhor ajuste nas caudas pela distribuição Logística em relação à distribuição
empírica quando comparado ao ajuste pela distribuição Normal.
Gráfico 2.12. Gráfico PP Amostra Merval x Ajuste Logística
Gráfico 2.13. Gráfico PP Amostra Merval x Ajuste Normal
Gráfico 2.10. Histograma Amostra Merval x Ajuste Logística
Gráfico 2.11. Histograma Amostra Merval x Ajuste Normal
32
0,0
0,1
0,2
0,3
0,4
0,5
0,6
-0,1
10
-0,1
05
-0,1
00
-0,0
95
-0,0
90
-0,0
85
-0,0
80
-0,0
75
-0,0
70
-0,0
65
Nor
mal
Logi
stic
Como se verificou na tabela 2.5, a distribuição Logística apresenta um
coeficiente de curtose, 4,2, mais elevado que o coeficiente apresentado pela Normal, 3, e
mais próximo do coeficiente apresentado pela amostra, 7,6. Esta característica, de maior
achatamento - caudas mais pesadas confirmada no gráfico 2.14 - da distribuição Logística,
se revelou mais adequada, em detrimento às demais distribuições contínuas, aos dados dos
retornos passados da série financeira aqui analisada.
Tabela 2.6. Quantis Empíricos da cauda Esquerda do Merval x Quantis Estimados
Quantil cauda esquerda – Merval Descrição 10% 5% 2,5% 1% 0,10% 0,01%
Empírica -0,02641 -0,0398 -0,05191 -0,07212 -0,13204 -0,14765Logística -0,02682 -0,0361 -0,04504 -0,05661 -0,08534 -0,11396Normal -0,03132 -0,04025 -0,04800 -0,05701 -0,07579 -0,09125Dif. Logística 1,6% -9,3% -13,2% -21,5% -35,4% -22,8%Dif. Normal 18,6% 1,1% -7,5% -21,0% -42,6% -38,2%Fonte: Cálculos realizados no Software Bestfit.
A tabela 2.6 apresenta os quantis observados pela distribuição empírica dos
retornos da série do índice Merval comparados aos quantis estimados pelo ajustes das
distribuições Logística e Normal. Observa-se nas últimas linhas as diferenças percentuais
entre os quantis ajustados e os quantis da distribuição empírica.
Gráfico 2.14. Cauda Esquerda Merval Ajuste Logística x Ajuste Normal
33
0
2.000
4.000
6.000
8.000
10.000
12.000
-0,08
-0,06-0,04
-0,02
0,000,02
0,04
0,06
0,08
Para esta série, como já se concluiu para a série anterior, elege-se a distribuição
contínua Logística para representar os retornos amostrais do índice Merval, para o propósito
de estimar quantis que estejam fora da amostra analisada.
2.5. SÉRIE DOWN JONES
A evolução do índice Down Jones e o comportamento de seus retornos no
período sob análise são visualizados nos Gráficos 2.15 e 2.16. Os retornos diários oscilam
no intervalo de -7,5% a 6,2%.
A tabela 2.7 revela que a distribuição Logística foi classifica como o melhor
ajuste pelos testes K-S e A-D. O ajuste da distribuição Normal aos dados empíricos obteve o
2º lugar dentre os ajustes realizados pelo Bestfit. A distribuição Logística, que obteve as
menores discrepâncias, e a distribuição Normal foram rejeitadas pelos testes K-S e A-D,
pois todos os valores da estatística p-value resultaram menores que 5%.
Na tabela 2.8, observam-se as estatísticas descritivas da amostra e das
distribuições ajustadas, revelando que a distribuição Normal possui curtose bem inferior em
relação à curtose apresentada pelos dados amostrais. Ressalte-se que, como verificado nas
séries anteriores, a hipótese de Normalidade dos retornos, apresentou-se inadequada.
Tabela 2.7. Resultados Ajuste Down Jones Descrição Ajuste Logística Ajuste Normal
A-D K-S A-D K-S
Test Value 1,84 0,02115 15,96 0,05586 P Value <0,05 <0,05 <0,05 <0,05 Rank 1 1 2 2 Fonte : Cálculos realizados no Software Bestfit
Gráfico 2.15. Evolução do índice Down Jones
Gráfico 2.16. Retornos do índice Down Jones
34
g ( , ; , )
0
5
10
15
20
25
30
35
40
45
-0,0
8
-0,0
4
0,00
0,04
0,08
Inpu
tFi
t
( , ; , )
0
5
10
15
20
25
30
35
40
45-0
,08
-0,0
4
0,00
0,04
0,08
Inpu
tFi
t
g ( , ; , )
Fitte
d p-
valu
e
Input p-value
0,0
0,2
0,4
0,6
0,8
1,0
0,0
0,2
0,4
0,6
0,8
1,0
Fitte
d p-
valu
e
Input p-value
0,0
0,2
0,4
0,6
0,8
1,0
0,0
0,2
0,4
0,6
0,8
1,0
Tabela 2.8. Estatísticas Ajuste Down Jones Descrição Amostra Ajuste Logística Ajuste Normal
Média 0,0004 0,0005 0,0004Desvio-padrão 0,0112 0,0107 0,0112Assimetria -0,2531 0 0Curtose 6,9932 4,2 3Fonte: Cálculos da autora realizados no Software Bestfit
Os gráficos 2.17 e 2.18 apresentam visualmente os ajustes pela distribuição
Logística e Normal. Verifica-se, como revelado nesta seção, um melhor ajuste da
distribuição Logística em detrimento à distribuição Normal. As discrepâncias apresentadas
nas caudas pelos ajustes realizados podem ser verificadas nos gráficos 2.19 e 2.20,
observa-se pelo gráfico 2.19 o melhor ajuste nas caudas apresentado pela distribuição
Logística em relação à distribuição empírica quando comparado ao ajuste pela distribuição
Normal.
Gráfico 2.17. Histograma Amostra Down Jones x Ajuste Logística
Gráfico 2.18. Histograma Amostra Down Jones x Ajuste Normal
Gráfico 2.19. Gráfico PP Amostra Down Jones x Ajuste Logística
Gráfico 2.20. Gráfico PP Amostra Down Jones x Ajuste Normal
35
0,0
0,2
0,4
0,6
0,8
1,0
1,2
1,4
1,6
-0,0
500
-0,0
445
-0,0
390
-0,0
335
-0,0
280
Norm
alLo
gist
ic
Como se verificou na tabela 2.8, a distribuição Logística apresenta um
coeficiente de curtose mais próximo do coeficiente apresentado pela amostra, quando
compara à distribuição Normal. A distribuição amostral apresenta coeficiente de curtose de
6,9, revelando característica de caudas espessas, característica esta melhor representada
pela distribuição Logística como se pode visualizar nos gráficos 2.17 e 2.19.
Tabela 2.9.Quantis Empíricos da cauda Esquerda do Down Jones x Quantis Estimados
Quantil cauda esquerda – Down Jones Descrição 10% 5% 2,5% 1% 0,10% 0,01%
Empírica -0,01247 -0,01733 -0,02295 -0,02966 -0,06578 -0,07455Logística -0,01247 -0,01687 -0,02111 -0,02661 -0,04024 -0,05383Normal -0,01403 -0,01811 -0,02165 -0,02577 -0,03435 -0,04141Dif. Logística 0,0% -2,6% -8,0% -10,3% -38,8% -27,8%Dif. Normal 12,5% 4,5% -5,6% -13,1% -47,8% -44,5%Fonte: Cálculos realizados no Software Bestfit.
A tabela 2.9 apresenta os quantis observados pela distribuição empírica dos
retornos da série do índice Down Jones comparados aos quantis estimados pelo ajustes das
distribuições Logística e Normal. Observa-se nas últimas linhas as diferenças percentuais
entre os quantis estimados a partir das distribuições ajustadas e os quantis da distribuição
empírica, onde se pode observar que as discrepâncias se elevam à medida que se caminha
para a cauda, ressaltando-se as discrepâncias mais elevadas apresentadas pela distribuição
Normal.
Gráfico 2.21. Cauda Esquerda Down Jones Ajuste Logística x Ajuste Normal
36
Para esta série, como já se concluiu para as séries anteriores, elege-se a
distribuição contínua Logística para representar os retornos amostrais do índice Down
Jones, para o propósito de utilizar uma distribuição contínua para estimar perdas máximas
esperadas, com atenção especial à estimação de quantis que estejam fora da amostra
analisada.
Gráfico 2.23. Cauda Esquerda das distribuições ajustadas
Gráfico 2.22. Distribuições de Probabilidade Logísticas ajustadas para as Séries Financeiras
37
0
50
100
150
200
250
300
Os gráficos 2.22 e 2.23 acima revelam visualmente as características das
distribuições logísticas ajustadas aos dados amostrais das séries financeiras aqui
analisadas. Como as distribuições comparadas são Logísticas, possuem assimetria nula e o
mesmo valor para o coeficiente de curtose, portanto o comportamento das caudas decorrerá
dos valores dos demais parâmetros estimados. Observa-se, ainda, que o índice Ibovespa
apresenta cauda esquerda mais densa que os demais índices de bolsa.
2.6. SÉRIE DE PERDAS COM SEGURO DE INCÊNDIO
A série de perdas estudada nesta seção corresponde à cobertura de danos de
incêndio da indústria de seguros da Dinamarca, no período compreendido entre 1980 e
1990 inclusive, consistindo em 2.167 perdas acima de 1 milhão de Coroas Dinamarquesas,
obtida na base de dados do Software Evim e apresentadas no gráfico 2.24. A variável perda,
aqui analisada, corresponde à variável aleatória X do modelo de risco descrito no capítulo 1.
A tabela 2.10 revela que a distribuição Lognormal foi classifica como o melhor
ajuste pelo teste A-D, apresentando esta, dentre todas as distribuições contidas no Software
Bestfit, a menor discrepância em relação à distribuição amostral. A distribuição Lognormal,
com características apresentadas no Apêndice C, é uma distribuição bastante utilizada em
tarifação de seguros, possuindo distribuição unicaudal com assimetria positiva.
Gráfico 2.24. Perdas com Indenizações de Seguros
38
0,000
0,015
0,030
0,045
0,060
0,075
0 50 100
150
200
250
300
Fitte
d p-
valu
e
Input p-value
0,0
0,2
0,4
0,6
0,8
1,0
0,0
0,2
0,4
0,6
0,8
1,0
Tabela 2.10. Resultados do Ajuste com Indenizações de Seguros Descrição Ajuste Lognormal
A-D K-S
Test Value 2,663 0,0313P Value <0,05 <0,05Rank 1 3Fonte : Cálculos realizados no Software Bestfit
Na Tabela 2.11, observam-se as estatísticas descritivas da amostra e da
distribuição Lognormal ajustada.
Tabela 2.11. Estatísticas do Ajuste com Indenizações de Seguros Descrição Amostra Ajuste Lognormal
Média 3,39 3,18Desvio-padrão 8,51 5,59Assimetria 18,75 24,00Curtose 485,64 4.071,03Fonte: Cálculos realizados no Software Bestfit
Os gráficos 2.25 e 2.26 apresentam visualmente o ajuste pela distribuição
Lognormal.
Gráfico 2.25. Histograma Amostra Perdas Seguro x Ajuste Lognormal
Gráfico 2.26. Gráfico PP Amostra Perdas com Seguros x Ajuste
Lognormal
39
Tabela 2.12. Quantis Empíricos da cauda Direita10 da Distribuição de Perdas x Quantis Estimados
Quantil cauda direita – Seguro Incêndio Descrição 90% 95% 97,5% 99% 99,9%
Empírica 5,56 10,01 16,3 26,21 144,66 Lognormal 5,94 9,27 13,94 22,76 65,27 Dif. Lognormal 6,8% -7,4% -14,5% -13,2% -54,9% Fonte: Cálculos realizados no Software Bestfit.
A tabela 2.12 acima apresenta os quantis observados pela distribuição empírica
das perdas com indenizações de seguros de incêndio comparados aos quantis estimados
pelo ajuste da distribuição Lognormal. Observa-se na última linha as diferenças percentuais
entre os quantis ajustados e os quantis da distribuição empírica, onde se pode observar que
as discrepâncias se elevam à medida que se caminha para a cauda.
Por todo o exposto neste capítulo, verificou-se a necessidade de uma
metodologia mais apropriada para a estimação de quantis próximos às caudas das
distribuições empíricas aqui analisadas.
10 A distribuição Lognormal é uma distribuição unicaudal com assimetria positiva.
CAPÍTULO 3. APLICAÇÃO NUMÉRICA DA TVE
3.1. INTRODUÇÃO
No capítulo 2 realizou-se o ajuste de uma distribuição contínua à amostra
completa de dados amostrais. Concluiu-se, entretanto, que o ajuste obtido por esta
metodologia tradicional não estima adequadamente valores posicionados nas caudas das
distribuições empíricas. Isto se deve à característica de caudas espessas presente em todas
as séries analisadas.
Este capítulo aplica a metodologia dos valores extremos às séries apresentadas
no capítulo 2, com o propósito de analisar adequadamente eventos extremos. As
estimativas encontradas pela TVE serão comparadas com as estimativas encontradas pelas
metodologias tradicionais aqui descritas.
3.2. ESTIMATIVAS DE PERDAS PARA AS SÉRIES FINANCEIRAS
No capítulo 1 apresentou-se o conceito de Valor em Risco e a metodologia dos
valores extremos para sua estimação. Descreve-se e aplica-se, abaixo, em conjunto com a
metodologia TVE as metodologias tradicionais de cálculo do VaR.
3.2.1. Metodologias Tradicionais para o cálculo do VaR
3.2.1.1.VaR Simulação Histórica
Nada obstante a denominação de simulação histórica, esta metodologia não
requer o desenvolvimento de simulações. O cálculo utiliza a própria distribuição empírica
dos retornos passados para estimação dos quantis desejados, VaR. O método adapta-se
bem ao comportamento de caudas espessas, entretanto, supõe que o comportamento
passado reproduz de maneira satisfatória a verdadeira distribuição dos retornos futuros.
Ademais, a utilização de uma amostra de tamanho n, impede a estimação de probabilidade
de perdas superiores ao quantil 1/n.
41
Como os eventos extremos ocorrem com baixa freqüência, uma amostra de
dados apresenta contagens cada vez menores à medida que se aproxima das caudas,
tornando o desempenho da Simulação Histórica dependente do tamanho da amostra e
menos preciso quanto mais próximo das caudas.
A Simulação Histórica torna-se útil quando o comportamento empírico dos
retornos não segue as características encontradas nas distribuições contínuas disponíveis e
não se deseja supor comportamento diferenciado da série no futuro.
Pelo exposto, na Simulação Histórica utiliza-se a própria distribuição empírica
dos retornos passados para o cálculo do quantil correspondente ao nível de significância
desejado para o VaR. O VaR é encontrado, então, a partir da distribuição dos retornos
observada, buscando-se o retorno crítico posicionado na cauda esquerda tal que a
probabilidade a sua direita corresponda ao nível de confiança desejado conforme
figura 3.1.
Transformação dos retornos verificados no
período de análise em um histograma de perdas e
ganhos
ganhos perdas
5%
Nível de significância
desejado
Perda máxima com 95% de
confiança
Figura 3.1. Estimação do VaR por Simulação Histórica. Fonte: concepção da autora.
42
( ) )%(ˆ,ˆNormal zˆˆFVaR ασμ σμα −− +== 1
1
3.2.1.2.VaR Normal
Esse método presume que os retornos são normalmente distribuídos. A média e
desvio-padrão da Normal são estimados a partir da janela de dados passados escolhida
para o cálculo do VaR. Considerando que a distribuição contínua que representa os
retornos segue uma distribuição Normal, o p-quantil, ou seja, o VaR para α% de
significância é definido como
onde F representa a função repartição Normal e z o valor crítico11 da Normal unitária
Esse método, a despeito de sua simplicidade, não captura adequadamente o
risco referente à possibilidade de circunstâncias extremas. Ademais, não representa, como
verificado no capítulo 2 o comportamento de caudas espessas presente na distribuição dos
retornos dos ativos financeiros. A aplicação desta metodologia se propõe apenas a
identificar sua inadequação em relação à aplicação da TVE na estimação de quantis
posicionados nas caudas das distribuições.
3.2.1.3. VaR Paramétrico
Esse método utiliza uma distribuição contínua para representar os retornos
passados. Os parâmetros da distribuição utilizada são estimados a partir da janela de dados
passados escolhida para o cálculo do VaR. Utiliza-se, neste trabalho a distribuição Logística
para representar os retornos das séries financeiras descritas no capítulo anterior.
Considerando que a distribuição contínua que representa os retornos segue uma
11 zε é um ponto tal que a área, sob a curva da normal unitária, à sua direita é ε, conforme figura abaixo:
Figura: Área à direita de zε sob a curva normal unitária
43
( ) .lnbaFVaR b,aLogística ⎟⎠⎞
⎜⎝⎛
−⋅+== −
ααα
11
ax ==μ
3
2222 bs πσ ==
x2s
xa = 2
23π
sb ⋅=
distribuição Logística(a,b), o p-quantil, ou seja, o VaR para α% de significância é definido
como
onde
F representa a função repartição Logística; e
a,b os parâmetros da distribuição Logística.
A estimação dos parâmetros da distribuição logística é realizada, pelo método
dos momentos, onde os momentos amostrais são igualados aos momentos populacionais, o
número de equações deve ser igual ao número de parâmetros que devem ser estimados.
Sabendo-se que, as equações da média e variância populacionais da distribuição Logística
são:
3
222 b
aπσ
μ
=
=
Como desejo estimar dois parâmetros, igualam-se os dois primeiros momentos
populacionais da Logística μ e 2σ aos dois primeiros momentos amostrais:
A partir do sistema 3.1, os estimadores dos parâmetros da distribuição Logística,
encontrados pelo método dos momentos, são então:
onde:
é a média amostral dos retornos diários passados; e
é a variância amostral dos retornos diários passados.
(3.1)
44
A aplicação de uma distribuição contínua que se ajuste à série de retornos
analisada visa a capturar seu comportamento subjacente. Verificou-se no capítulo
anterior a rejeição da hipótese H0 de ajuste pela Logística, apresentando esta
distribuição, entretanto, as menores discrepâncias em relação às demais distribuições
contínuas disponíveis para o ajuste. Sua utilização decorre da necessidade de estimação
de quantis fora da amostra de dados e conseqüente comparação com a TVE.
3.2.2. TVE para o cálculo da Perda Máxima Esperada - VaR
A metodologia da TVE, diferentemente das metodologias tradicionais que
utilizam todos os dados amostrais, ajusta uma distribuição contínua apenas aos máximos
amostrais. A partir da estimação dos parâmetros da distribuição limite GVE dos máximos
amostrais, pode-se estender a análise fora da amostra e considerar possíveis movimentos
extremos que não foram observados historicamente.
Nesta seção, analisam-se perdas extremas, portanto, a distribuição GVE será
aplicada à cauda esquerda da distribuição dos retornos. Como o interesse é por mínimos
extremos, a relação mínimo(X1,...,Xn) = - máximo( - X1,..., - Xn) deve ser aplicada na
estimação dos quantis almejados, consoante descrito no capítulo 1. Com a relação máximo
( - X1,..., - Xn), encontram-se máximos dentro dos blocos, que também representam mínimos
em valor absoluto; portanto, para se encontrar os mínimos dentro do bloco, aplica-se a
transformação final - máximo( - X1,..., - Xn).
Pelo exposto, para a determinação do VaR, para as séries financeiras em pauta,
utilizando a teoria dos valores extremos, cumprem-se os passos a seguir,
a. determinam-se os retornos amostrais;
b. multiplica-se por (-1) os retornos obtidos no passo anterior;
c. estimam-se os parâmetros da distribuição GVE no software Matlab R.12,
como segue:
45
( )[ ]⎭⎬⎫
⎩⎨⎧
−−−+−= − 11 ξαξσμ )ln(ˆˆˆVaRextremo
A estimação dos parâmetros da distribuição GVE é realizada utilizando a
função (GVE) do software Evim, em Matlab R12. A função GVE referida
estima os parâmetros da distribuição GVE, numericamente, por máxima
verossimilhança.
Estimação dos parâmetros da distribuição GVE em Matlab R.12 i. load dados; ii. bloco = 21; iii. out = GVE(dados,bloco); iv. out.par_ests ans = onde:
dados é o vetor encontrado no passo 2 acima;
bloco é número de dias escolhido para selecionar o retorno máximo;
escolheu-se 21 dias para representar o número médio de dias úteis no
mês, e assim se eleger máximos mensais (que representam os mínimos
mensais em valor absoluto).
d. estima-se o VaR extremo, com os parâmetros determinados no passo 3,
para o nível de confiança (1-α)% desejado, como segue:
Os parâmetros estimados para o cálculo do VaR utilizando as metodologias
descritas acima estão dispostos nas tabelas 3.1 e 3.2.
Tabela No 3.1. Parâmetros estimados para o Ajuste pelas distribuições Normal e Logística
Ajuste Normal Parâmetros Estimados Ibovespa Merval Down Jones
μ 0,0016085 0,0001879 0,0003756
σ 0,0278579 0,0245857 0,0112369
Ajuste Logística Parâmetros Estimados Ibovespa Merval Down Jones
a 0,001609 0,000188 0,000376
b 0,015359 0,013555 0,006195
Fonte: cálculos realizados no Bestfit
linhas de comando
solução encontrada [ ] ˆ ˆ ˆ μσξ
46
Tabela No 3.2. Parâmetros estimados para o Ajuste pela distribuição GVE Parâmetros
Estimados GVE Ibovespa Merval Down Jones
ξ 0,323266 0,159792 0,139534
μ 0,030707 0,032814 0,014723
σ 0,014303 0,017230 0,007767
Fonte: cálculos realizados no Matlab
Os ajustes pela distribuição GVE aqui realizados foram avaliados pelo teste K-S
utilizando o software Matlab R.12; os passos para a realização desse teste estão dispostos
a seguir:
1. obtêm-se o vetor contendo a amostra de retornos máximos mensais, que
representam, para a situação das séries de retorno, mínimos mensais em
valor absoluto, considerando-se 21 dias úteis para representar 1 mês;
2. obtêm-se o vetor contendo uma amostra de tamanho n de retornos gerados a
partir de uma distribuição GVE, utilizando-se os parâmetros estimados
dispostos na Tabela 3.2;
3. aplica-se o teste K-S para as duas amostras obtidas nos passos 1 e 2,
utilizando-se a função do Matlab R12 kstest2(amostra1,amostra2). O teste
K-S testa a hipótese nula de que os dois vetores seguem a mesma
distribuição contínua, ou seja, as hipóteses do teste são:
H0: as amostras 1 e 2 provém da mesma distribuição; e
H1: as amostras 1 e 2 não seguem a mesma distribuição de probabilidade.
4. os resultados da estatística p-value estão dispostos na tabela 3.3.
Tabela No 3.3. Resultados do teste K-S para o Ajuste pela distribuição GVE
Índices p-value
Ibovespa 0.5470 Merval 0.6580 Down Jones 0.3614 Fonte: cálculos obtidos no Matlab.
Observa-se na tabela 3.3. que a hipótese H0 não foi rejeitada ao nível de
significância de 5% para os três índices em tela. Os valores da estatística p-value foram
superiores a 5% para todos os índices, não se podendo, com isso, rejeitar a hipótese das
duas amostras em questão seguirem a mesma distribuição contínua, a distribuição GVE.
Para se visualizar as diferenças entre os máximos amostrais e a distribuição
GVE ajustada plotam-se a seguir, para os três índices, os gráficos: i) distribuição empírica
47
0 20 40 60 80 100 1200
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
0.18
(f.d.p) dos máximos amostrais versus distribuição (f.d.p) GVE ajustada; ii) distribuição
empírica cumulativa (f.d) dos máximos amostrais x distribuição cumulativa(f.d) GVE
ajustada; e iii) gráfico Quantil-Quantil12 máximos amostrais x amostra GVE.
Os gráficos 3.1, 3.2, 3.3 e 3.4 representam os mínimos mensais em valor
absoluto (valores de máximo selecionados em blocos de 21 dias) e o ajuste de uma
distribuição GVE a essa amostra de mínimos do índice Bovespa.
12 Um gráfico Quantil-Quantil é usado para determinar se duas amostras podem decorrer da mesma distribuição. Um relacionamento linear indica a possibilidade das duas amostras seguirem a mesma distribuição.
Gráfico 3.3. Ajuste de uma f.d. cumulativa GEV aos Mínimos Mensais
0 0.02 0.04 0.06 0.08 0.1 0.12 0.14 0.16 0.18 0.20
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
x
F(x)
Empirical CDF Ibovespa GEV
0 0.02 0.04 0.06 0.08 0.1 0.12 0.14 0.16 0.180
0.05
0.1
0.15
0.2
0.25
Gráfico 3.4. Gráfico Q-Q do ajuste GEV aos Mínimos Mensais Ibovespa
X Quantiles
Y Q
uant
iles
0 0.02 0.04 0.06 0.08 0.1 0.12 0.14 0.16 0.18 0.20
5
10
15
20
25
30
35
40
45
x
GEV x IBovespa Máximos Mensais
Gráfico 3.2. Ajuste f.d.p GEV aos Mínimos Mensais do Ibovespa
Gráfico 3.1. Mínimos Mensais Ibovespa em valor absoluto
48
0 20 40 60 80 100 1200
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
Os gráficos 3.5, 3.6, 3.7 e 3.8 representam os mínimos mensais em valor
absoluto e o resultado visual do ajuste de uma distribuição GVE a essa amostra de mínimos
do índice Merval.
Gráfico 3.7. Ajuste de uma f.d. cumulativa GEV aos Mínimos Mensais
0 0.02 0.04 0.06 0.08 0.1 0.12 0.14 0.16 0.180
5
10
15
20
25
30
35
x
GEVMerval
Gráfico 3.6. Ajuste f.d.p GEV aos Mínimos Mensais Merval
Gráfico 3.5. Mínimos Mensais Merval em valor absoluto
0 0.02 0.04 0.06 0.08 0.1 0.12 0.14 0.16 0.18 0.20
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
x
F(x)
Empirical CDF Merval GEV
0 0.02 0.04 0.06 0.08 0.1 0.12 0.14 0.160
0.05
0.1
0.15
0.2
0.25
Gráfico 3.8. Gráfico Q-Q do ajuste GEV aos Mínimos Mensais Merval
X Quantiles
Y Q
uant
iles
49
0 20 40 60 80 100 1200
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
Os gráficos 3.9, 3.10, 3.11 e 3.12 representam os mínimos mensais em valor
absoluto e o resultado visual do ajuste de uma distribuição GVE a essa amostra de mínimos
do índice Down Jones.
0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.080
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
x
F(x)
Empirical CDF Down Jones GEV
0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08
0
5
10
15
20
25
30
35
40
45
50
x
GEVDown Jones
Gráfico 3.10. Ajuste f.d.p GEV aos Mínimos Mensais Down Jones
Gráfico 3.9. Mínimos Mensais Down Jones em valor absoluto
Gráfico 3.11. Ajuste de uma f.d. cumulativa GEV aos Mínimos Mensais
0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.080
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
X Quantiles Gráfico 3.12. Gráfico Q-Q do ajuste GEV
aos Mínimos Mensais Down Jones
Y Q
uant
iles
50
[ ] ˆ ˆ ˆ
σ μξ
O gráfico abaixo apresenta as distribuições GVE ajustadas a partir dos
parâmetros estimados , apresentados na tabela 3.2, onde se observa que o
índice de cauda 1/ξ é igual a (3,1 ; 6,3; 7,2) para as séries Ibovespa, Merval e Down Jones
respectivamente. Observa-se que o Ibovespa por possuir o menor índice de cauda
apresenta a distribuição com a cauda mais espessa. Observa-se, ainda, que a distribuição
GVE para o índice Merval apresenta menor média e menor desvio em relação às demais
possuindo massa de probabilidade mais concentrada à esquerda. No gráfico 3.13 verifica-
se a imagem ampliada das caudas das distribuições, onde a cauda do índice ibovespa é
mais densa para valores mais extremos.
0 0.02 0.04 0.06 0.08 0.1 0.12 0.14 0.16 0.18 0
5
10
15
20
25
30
35
40
45
50
x
Ibovespa Merval Down Jones
0.11 0.12 0.13 0.14 0.15 0.16 0.17 0.18 0.190
0.2
0.4
0.6
0.8
1
1.2
1.4
x
IbovespaMervalDown Jones
Gráfico 3.13. Distribuições GEV ajustadas aos índices Ibovespa, Merval e Down Jones
51
As estimativas de VaR, perda máxima esperada, para distintos níveis de
significância estão dispostos na tabela 3.4. Pode-se observar, para os três índices
financeiros, que as perdas máximas, considerando-se valores próximos às caudas,
encontradas utilizando-se a Normal e a Logística, são inferiores às perdas observadas
historicamente (SH). Já os resultados encontrados pela distribuição GVE exibem mínimos
maiores que os encontrados nas séries históricas, como era de se desejar.
Tabela No 3.4. Estimativas de VaR para distintos níveis de significância
Índice Bovespa
Significância SH Normal Logística GVE 5% -4,01% -4,42% -4,36% -10,20%
2,5% -5,22% -5,30% -5,47% -13,17%1% -7,52% -6,32% -6,90% -18,22%
0,1% -14,0% -8,45% -10,45% -39,91%
Índice Merval
Significância SH Normal Logística GVE 5% -3,98% -4,03% -3,97% -9,83%
2,5% -5,22% -4,80% -4,95% -11,90%1% -7,25% -5,70% -6,21% -14,99%
0,1% -13,81% -7,58% -9,34% -25,01%
Índice Down Jones
Significância SH Normal Logística GVE 5% -1,74% -1,81% -1,79% -4,33%
2,5% -2,30% -2,16% -2,23% -5,20%1% -2,97% -2,58% -2,81% -6,48%
0,1% -7,00% -3,43% -4,24% -10,50%Fonte: cálculos realizados pela autora. 3.3. ESTIMATIVAS DE PERDAS PARA A SÉRIES DE INDENIZAÇÕES DE SEGURO DE INCÊNDIO
As estimativas de perdas máximas, representadas aqui pelo pagamento de
indenizações de seguro, serão calculadas utilizando-se i) a metodologia TVE que trabalha
apenas com máximos amostrais; e ii) as metodologias tradicionais que observam a amostra
total de dados.
As estimativas de perdas máximas serão encontradas pelas metodologias abaixo
citadas:
i) distribuição empírica: utilização da distribuição empírica amostral para
encontrar a perda máxima para determinado nível de confiança, consoante
gráfico abaixo:
52
( )y%zyLognormal ePerda σαμ +=
5%
Nível de significância
desejado
Perda máxima com 95% de
confiança
Construção da distribuição empírica de perdas a partir
dos dados amostrais
Figura 3.2. Estimação da perda máxima esperada a partir da distribuição empírica amostral
ii) distribuição Lognormal: utilização da distribuição contínua Lognormal para
estimar a perda máxima para determinado nível de confiança. A distribuição
Lognormal obteve, conforme apresentado no capítulo 2, o 1º lugar no rank do
teste A-D. Verificou-se também no capítulo 1 a rejeição da hipótese H0 de
ajuste pela Lognormal, apresentando, esta distribuição, entretanto as
menores discrepâncias em relação às demais distribuições contínuas
disponíveis para o ajuste. Sua utilização decorre da necessidade de
estimação de quantis fora da amostra de dados e conseqüente comparação
com a TVE:
onde: y é uma variável aleatória normal e x é uma variável aleatória Lognormal;
y ~Normal (ln x);
z valor crítico da normal padrão para o nível de significância α.
53
( )[ ]11 −−−+= −ξαξσμ )ln(ˆˆˆPerdaGEV
extrema
2
21
yy )xln( σμ −= ⎟⎟⎠
⎞⎜⎜⎝
⎛+= 12
22
xslnyσ
x2s
⎟⎠⎞
⎜⎝⎛ += 2
21
yyx exp σμμ
( ) ( )[ ]12 222 −⋅+= σσμσ expexpx
2yy σ e μ
As equações acima representam a média e a variância da distribuição
Lognormal. Para a estimação dos parâmetros , pelo método dos
momentos, iguala-se as equações dos momentos populacionais acima pela
média e variância amostral. Obtendo, então, os estimadores abaixo:
onde:
é a média amostral das perdas para o tamanho da janela escolhida; e
é a variância amostral das perdas para o tamanho da janela móvel
escolhida;
iii) distribuição GVE: aplicação da distribuição GVE aos máximos amostrais,
utilizando blocos de 21 dias, para o nível de confiança (1-α)%. Os parâmetros
da distribuição GVE seguem os mesmos passos descritos para as séries
financeiras, exceto pela não necessidade de multiplicação das variáveis por
(-1), pois, neste caso estamos interessados nos máximos enquanto nas
séries financeiras estávamos interessados nos mínimos amostrais:
Os parâmetros estimados para o cálculo da perda máxima esperada utilizando as
metodologias descritas acima estão dispostos nas Tabelas 3.5 e 3.6.
Tabela No 3.5. Ajuste Lognormal aos dados de Seguro
Descrição Parâmetros Estimados Média amostral 3,39
Variância amostral 72,38Fonte: cálculos realizados pela autora
54
Tabela No 3.6. Parâmetros estimados para o Ajuste GVE aos dados de Seguro
Descrição Parâmetros Estimados GVE
ξ 0,535662
μ 10,317754
σ 7,332856Fonte: cálculos realizados no Matlab
Para testar o ajuste da distribuição GVE ao dados dos máximos amostrais de
indenizações de seguro utiliza-se o teste K-S já descrito acima. O valor da estatística
p-value resultou em 0,8137, superior portanto a 5%, não se podendo, com isso, rejeitar a
hipótese de as duas amostras em questão seguirem a mesma distribuição contínua (GVE),
ao nível de significância de 5%.
Para visualizar as diferenças entre os máximos amostrais e a distribuição GVE
ajustada plotam-se a seguir os gráficos: i) distribuição empírica (f.d.p) dos máximos
amostrais versus distribuição (f.d.p) GVE ajustada; ii) distribuição empírica cumulativa (f.d)
dos máximos amostrais x distribuição cumulativa(f.d) GVE ajustada; e iii) gráfico Quantil-
Quantil máximos amostrais x amostra GVE.
0
10
20
30
40
50
60
70
80
90
0 25 50 75 100 125 150 175 200 225 250 275 300
x 0
10
20
30
40
50
60
70
80
90
Danos
GEV
Gráfico 3.15. Ajuste f.d.p GEV aos Máximos da distribuição de perdas
0 20 40 60 80 100 1200
50
100
150
200
250
300
Gráfico 3.14. Máximos da Série de Indenizações de Seguro
55
Tabela No 3.7. Estimativas de Perdas Máximas para distintos níveis de confiança
Nível de confiança
Distribuição Empírica Amostral Lognormal Distribuição GVE
95% 9,96 12,74 63,8397,5% 16,26 19,87 94,71
99% 26,04 33,32 157,5299,9% 131,48 97,88 550,30
Fonte: cálculos realizados pela autora.
Observa-se na tabela 3.7 as estimativas de perdas máximas utilizando-se as
diversas metodologias descritas acima. No próximo capítulo, comparar-se-ão as estimativas
de perdas máximas com os resultados efetivamente ocorridos.
A distribuição GVE se revelou, como no caso dos retornos dos índices bursáteis,
mais prudentes que a distribuição Lognormal, sobretudo para as situações bem próximas do
limite da cauda direita.
Gráfico 3.17. Gráfico Q-Q do ajuste GEV aos Máximos de perdas com Indenizações
Gráfico 3.16. Ajuste de uma f.d. cumulativa GEV aos Máximos de perdas com sinistros
0 50 100 150 200 250 3000
50
100
150
200
250
300
350
X Quantiles 0 50 100 150 200 250 300
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
x
F(x)
Empirical CDF danosGEV
Y Q
uant
iles
CAPÍTULO 4. RESULTADOS EMPÍRICOS PARA VERIFICAÇÃO DA TEORIA DOS VALORES EXTREMOS 4.1. INTRODUÇÃO
Neste capítulo as amostras descritas no capítulo 2 serão utilizadas para estimar
e testar os valores das perdas máximas sob as metodologias apresentadas nos capítulos
anteriores para as categorias: i) séries de retornos; e ii) série de indenizações de seguro. As
estimativas de perdas máximas pelas diversas metodologias são afetadas pelo erro de
estimativa, variabilidade natural inerente à amostra utilizada, com isso verificaremos a
precisão dos modelos com a utilização de um teste de hipótese para a proporção de falhas
das estimativas. Referidas falhas serão encontradas comparando-se as perdas futuras
estimadas com as perdas efetivamente observadas.
4.2. VERIFICAÇÃO DAS ESTIMATIVAS DE PERDAS
Para as amostras em questão foram desenvolvidos programas em linguagem
Fortran e MatlabR12, apresentados em Apêndice, para o cálculo das estimativas de perdas
máximas projetadas utilizando-se as seguintes abordagens:
Séries financeiras: I. Simulação Histórica;
II. Método Paramétrico com aproximação Normal;
III. Método Paramétrico utilizando a distribuição Logística como representativa
para os retornos; e
IV. Abordagem da Teoria dos Valores Extremos utilizando a distribuição GVE.
Série de Seguros: I. Distribuição Empírica das perdas construída a partir da amostra total de
dados passados;
II. Distribuição Contínua Lognormal como representativa da distribuição de
perdas com indenizações de seguro, com parâmetros estimados a partir da
amostra total de dados passados;
III. Abordagem da Teoria dos Valores Extremos utilizando a distribuição GVE
para os máximos amostrais.
57
xa = 2
23π
sb ⋅=
x2s
Empregou-se, adicionalmente, uma janela móvel de 1000 dias úteis para a
geração das estimativas de perdas máximas; a cada dia, a previsão é atualizada agregando-
se a informação do primeiro dia à frente e desconsiderando-se a primeira informação da
série anterior. A escolha da janela móvel de tamanho fixo igual a 1.000 provém da
necessidade de uma amostra de tamanho razoável para a geração de estimativas
consistentes dos parâmetros da distribuição GVE, que utiliza apenas os máximos amostrais
em sua estimação.
O cálculo das perdas máximas esperadas, utilizando-se as metodologias supra
citadas, foi realizado como segue:
Séries Financeiras:
I - Simulação Histórica:
a - construiu-se a distribuição observada dos retornos diários obtidos em 1.000
dias passados;
b - obteve-se o retorno posicionado na cauda esquerda tal que a probabilidade a
sua direita corresponda ao nível de confiança desejado.
II - Método Paramétrico com aproximação Normal:
a - calculou-se a média e o desvio-padrão dos retornos diários passados para o
tamanho da janela escolhida;
b - obteve-se o valor tabelado da distribuição Normal padrão tal que a área a sua
direita corresponda ao nível de confiança desejado;
c - calculou-se o retorno crítico pela seguinte equação:
(média obtida no passo a) + (valor tabelado obtido em b) * (desvio obtido em a)
III -Método Paramétrico utilizando a distribuição logística como representativa
para os retornos:
a - estimou-se os parâmetros da distribuição logística utilizando os retornos
passados diários de acordo com o tamanho da janela escolhida, a partir das
seguintes equações:
onde:
é a média dos retornos para o tamanho da janela móvel escolhida; e
é a variância dos retornos para o tamanho da janela móvel escolhida.
58
.lnbaVaRLogística ⎟⎠⎞
⎜⎝⎛
−⋅+=
αα
1
( )[ ]⎭⎬⎫
⎩⎨⎧
−−−+−= − 11 ξαξσμ )ln(ˆˆˆVaRextremo
⎟⎟⎠
⎞⎜⎜⎝
⎛+= 12
22
xslnyσ 2
21
yy )xln( σμ −=
x2s
b - calculou-se a perda máxima esperada pela Logística com os parâmetros
estimados em a) para (1-α)% de confiança a partir da equação:
IV - Abordagem TVE utilizando a distribuição GVE:
a - determinou-se os retornos amostrais de acordo com a janela escolhida 1.000
dias;
b - multiplicou-se por (-1) os retornos do passo anterior;
c - estimou-se os parâmetros da distribuição GVE com a amostra obtida em b)
utilizando os máximos obtidos de blocos de 21 dias;
d - estimou-se o VaR extremo, com os parâmetros determinados no passo c,
para o nível de confiança (1-α)% desejado, como segue:
Série de Seguro de Incêndio:
I. Distribuição Empírica das perdas construída a partir da amostra total de 1.000
dados passados;
a - construiu-se a distribuição observada das perdas com indenizações de
seguro obtidas em 1.000 perdas passados;
b - obteve-se a perda posicionada na cauda da distribuição tal que a
probabilidade a sua esquerda corresponda ao nível de confiança desejado.
II. Distribuição Contínua Lognormal como representativa da distribuição de
perdas;
a - estimou-se os parâmetros da distribuição Lognormal utilizando as 1.000
perdas passadas, a partir das seguintes equações: é a média amostral das perdas para o tamanho da janela móvel escolhida; e
é a variância amostral das perdas para o tamanho da janela móvel escolhida.
b - calculou-se a perda máxima esperada pela Lognormal com os parâmetros
estimados em a) para (1-α)% de confiança a partir da equação:
59
( )[ ]11 −−−+= −ξαξσμ )ln(ˆˆˆPerdaGEV
extrema
( )yσ%zyLognormal ePerda ⋅+= αμ
onde:
y é uma variavel aleatória normal e x é uma variável aleatória lognormal;
y ~Normal (ln x);
z valor crítico da normal padrão para o nível de significância α.
III. Abordagem da Teoria dos Valores Extremos utilizando a distribuição GVE
para os máximos amostrais.
a. buscaram-se as 1.000 perdas amostrais passadas;
b. estimaram-se os parâmetros da distribuição GVE a partir dos máximos da
amostra obtida em a) utilizando blocos de 21 dias;
c. estimou-se a perda extrema, com os parâmetros determinados no passo b,
para o nível de confiança (1-α)% desejado, como segue:
Nos Apêndices D, E e F pode-se verificar:
1) Apêndice D: programa em linguagem Matlab para a geração das (n-1000)
estimativas futuras dos parâmetros da distribuição GVE para as séries em
questão, considerando-se uma janela móvel de 1000 dados e amostra total
de tamanho n;
2) Apêndice E: programa em linguagem Fortran para geração das (n-1000)
estimativas futuras das perdas máximas esperadas sob as abordagens acima
descritas para as séries financeiras;
3) Apêndice F: programa em linguagem Fortran para geração das (n-1000)
estimativas futuras das perdas máximas esperadas sob as abordagens acima
descritas para a série de seguro.
Os primeiros 1000 dados das amostras foram utilizados para a previsão da 1ª
estimativa futura, de número 1001; como já se elucidou acima, a estimativa número 1002
será encontrada com o intervalo de dados [2; 1001], e assim sucessivamente.
As perdas esperadas calculadas são estimativas influenciadas pela variabilidade
amostral; é conveniente, portanto, realizar uma análise de acuidade das metodologias de
previsão de perdas, comparando-se a estimativa de perda potencial medida pelas
60
metodologias em pauta com a perda observada após a passagem do tempo. Com isso, para
a verificação da precisão das estimativas, conta-se a freqüência com que as perdas
potenciais previstas são efetivamente excedidas, comparando-se as perdas projetadas com
as realizações observadas; em seguida, utiliza-se um teste de hipóteses para verificar se a
freqüência ocorrida encontra-se dentro do intervalo de confiança. Em caso negativo,
considera-se que o modelo não é eficaz.
A tabela 4.1 apresenta o número de estimativas geradas nas simulações e o
número de estimativas utilizadas com o propósito de comparação com as perdas
efetivamente ocorridas. A intenção da TVE é a previsão de perdas extremas; com isso a
verificação dos resultados será realizada em períodos de elevadas perdas. Para as séries
financeiras, estipulou-se os meses em que ocorreram as dez priores perdas ocorridas no
período de previsão13 para a realização do teste. Para a série de seguro foram analisadas
as 150 piores perdas no período de previsão.
O método utilizado para verificar a precisão do modelo registra a proporção de
falhas, que demonstra a proporção de vezes que a estimativa de perda é excedida em
determinada amostra. Segundo Jorion (1997, p.90) Kupiec14 (1995) desenvolveu regiões de
confiança para esse teste, sendo definidas pelos pontos da cauda da razão de log-
verossimilhança:
( ) ( )⎥⎥⎦
⎤
⎢⎢⎣
⎡⎟⎠⎞
⎜⎝⎛
⎟⎠⎞
⎜⎝⎛ −+⎥⎦
⎤⎢⎣⎡ −−=
−−
xxnx*xn*
nx
nxlnpplnLR 1212
onde:
p* é a probabilidade de perda esperada.
Sob a hipótese nula a estatística do teste 2gl1~LR χ . A hipótese nula significa a
adequação do modelo de previsão de perdas.
A tabela 4.1 apresenta os intervalos de confiança do teste de proporção para as
séries em pauta. O intervalo p indica a freqüência de insucessos que poderia ser observada
13 Os 1000 primeiros dados de todas as séries foram excluídos para a verificação dos resultados, pois compõe a primeira janela de dados amostrais. 14 KUPIEC, P. Techniques for Verifying the Accuracy of Risk Measurement Models, in Journal of Derivatives 2, p 73 – 84, Dezembro de 1995.
61
em uma amostra de tamanho n, sem rejeitar a hipótese nula de que p* é a correta
probabilidade a um nível de confiança do teste de 95%. Convém esclarecer que, as perdas
esperadas são estimadas com 99% de confiança (refere-se ao quantil selecionado para a
previsão de perdas), logo p* = 1%, enquanto o intervalo de não rejeição é construído com
95% de confiança.
Tabela 4.1 – Intervalos de Confiança para a Hipótese H0: p* = 1% com 95% de confiança Descrição Ibovespa Merval Down Jones Seguro tamanho total da amostra 2446 2450 2490 2167 número de previsões simuladas 1446 1450 1490 1167 número de previsões utilizadas para a verificação do modelo
143 183 142 150
Intervalo de confiança p <2,80% p < 2,73% p < 2,82% p <2,67%Fonte: cálculos da autora.
Utilizando-se os intervalos da tabela 4.1 conclui-se que para o percentil de 99% de
confiança para previsão das perdas, todos os modelos, com exceção da TVE, estimam
incorretamente as perdas em períodos de instabilidade, ao nível de 5% de significância.
Tabela 4.2 - Percentual de ocorrências que excedem o VaR em períodos de alta instabilidade para a Série do Ibovespa
Método Percentual de Excessos(quantil 99%
cauda esquerda)
Hipótese H0 com95% de confiança (cauda esquerda)
Simulação Histórica 3,5% Rejeitada Aproximação Normal 7,7% Rejeitada Distribuição Logística 5,6% Rejeitada Distribuição GVE 0,0% Não Rejeitada Fonte: cálculos da autora. Tabela 4.3 - Percentual de ocorrências que excedem o VaR em períodos de alta instabilidade para a Série do Merval
Método Percentual de Excessos(quantil 99%
cauda esquerda)
Hipótese H0 com 99% de confiança(cauda esquerda)
Simulação Histórica 7,1% Rejeitada Aproximação Normal 8,7% Rejeitada Distribuição Logística 8,7% Rejeitada Distribuição GVE 0,0% Não Rejeitada Fonte: cálculos da autora.
62
Tabela 4.4 - Percentual de ocorrências que excedem o VaR em períodos de alta instabilidade para a Série do Down Jones
Método Percentual de Excessos(quantil 99%
cauda esquerda)
Hipótese H0 com 99% de confiança(cauda esquerda)
Simulação Histórica 7,7% Rejeitada Aproximação Normal 9,2% Rejeitada Distribuição Logística 8,5% Rejeitada Distribuição GVE 0,7% Não Rejeitada Fonte: cálculos da autora. Tabela 4.5 - Percentual de ocorrências que excedem a perda máxima esperada para a série de seguro de incêndio
Método Percentual de Excessos(quantil 99%
da cauda direita da distribuição unicaudal)
Hipótese H0 com95% de confiança
Distribuição Empírica 11,33% Rejeitada Lognormal 12,00% Rejeitada Distribuição GVE 1,33% Não Rejeitada Fonte: cálculos da autora.
Os resultados acima revelam que todas as abordagens, com exceção da
distribuição de extremos GVE, subestimam as perdas potenciais considerando períodos de
instabilidade e quantis elevados como de 99% das distribuições de perdas.
4.3. ANÁLISE DOS RESULTADOS PARA AS TRÊS PIORES PERDAS DAS AMOSTRAS
Nesta seção, calculam-se as previsões de perdas máximas apenas para os três
eventos extremos das séries, ou seja, escolhem-se inicialmente as perdas extremas, no
caso as três piores perdas, e avalia-se qual seria a estimativa de perda máxima esperada
para as diversas metodologias apresentadas neste trabalho. Não se utiliza, nesta seção, a
janela fixa de 1000 dados. Como exemplo, tem-se a perda máxima identificada para o
Ibovespa, representada pelo retorno de -17,23% ocorrido em 10/09/1998. Referida perda é o
retorno de número 1158 da série Ibovespa, utiliza-se, neste caso, toda a amostra passada
de retornos, 1157 retornos, para o cálculo da estimativa de perda máxima esperada para o
dia de número 1158, 10/09/1998.
63
Apresenta-se, baixo, paras as séries estudadas as três piores perdas ocorridas
no período amostral total, bem como as estimativas de perdas máximas esperadas
utilizando as diversas metodologias em tela e considerando diversos níveis de confiança.
Tabela 4.6 - Perdas extremas do índice Ibovespa no período amostral total e estimativas de perdas máximas esperadas considerando diversos níveis de confiança Retornos dia da ocorrência data da ocorrência
-11,19% 60 04/04/1994-16,22% 943 27/10/1997-17,23% 1158 10/09/1998
1ª perda extrema, -11,19%, correspondente ao retorno no 60 da amostra
Nível de Confiança SH Normal Logística GVE
95% -5,02% -4,71% -4,62% -8,51% 97,5% -8,09% -6,07% -6,33% -10,63%
99% fora da amostra -7,64% -8,54% -13,57%2ª perda extrema, -16,22%, correspondente ao retorno no 943 da amostra
Nível de Confiança SH Normal Logística GVE
95% -4,41% -4,63% -4,56% -11,90% 97,5% -5,52% -5,58% -5,77% -16,41%
99% -8,73% -6,70% -7,33% -24,92%3ª perda extrema, -17,23%, correspondente ao retorno no 1158 da amostra
Nível de Confiança SH Normal Logística GVE
95% -4,69% -4,83% -4,77% -12,40% 97,5% -6,06% -5,80% -5,99% -16,49%
99% -9,08% -6,93% -7,57% -23,68%Fonte: cálculos da autora.
Observa-se na tabela 4.6 que a primeira perda extrema selecionada está
posicionada no sexagésimo dia da série de retornos, portanto temos apenas 59 retornos
para a estimação da perda máxima esperada. Observa-se na simulação histórica pelo
número limitado da amostra que o percentil máximo que pode se utilizado é de 98% de
confiança(1-1/59), com isso o percentil 99% está fora da amostra, como identificado acima.
64
Tabela 4.7 - Perdas extremas do índice Merval no período amostral total e estimativas de perdas máximas esperadas considerando diversos níveis de confiança Retornos dia da ocorrência data da ocorrência
-14,77% 959 27/10/1997-14,30% 1175 10/09/1998-13,20% 1976 28/11/2001
1ª perda extrema, -14,77%, correspondente ao retorno no 959 da amostra
Nível de Confiança SH Normal Logística GVE
95% -3,50% -3,45% -3,40% -7,76% 97,5% -4,93% -4,11% -4,24% -8,93%
99% -6,01% -4,89% -5,33% -10,49% 99,9% out sample -6,51% -8,02% -14,48%
2ª perda extrema, -14,30%, correspondente ao retorno no 1175 da amostra
Nível de Confiança SH Normal Logística GVE
95% -3,98% -3,75% -3,70% -9,06% 97,5% -5,01% -4,46% -4,59% -10,78%
99% -6,35% -5,28% -5,75% -13,24% 99,9% -14,15% -7,01% -8,62% -20,61%
3ª perda extrema, -13,20%, correspondente ao retorno no 1976 da amostra
Nível de Confiança SH Normal Logística GVE
95% -4,03% -3,89% -3,84% -9,48% 97,5% -5,19% -4,62% -4,76% -11,41%
99% -6,51% -5,48% -5,96% -14,25% 99,9% -14,31% -7,26% -8,93% -23,19%
Fonte: cálculos da autora.
65
Tabela 4.8 - Perdas extremas do índice Down Jones no período amostral total e estimativas de perdas máximas esperadas considerando diversos níveis de confiança
Retornos dia da ocorrência data da ocorrência -7,45% 964 27/10/1997-6,58% 1176 31/08/1998-7,40% 1940 17/09/2001
1ª perda extrema, -7,45%, correspondente ao retorno no 964 da amostra
Nível de Confiança SH Normal Logística GVE
95% -1,21% -1,18% -1,16% -2,89% 97,50% -1,69% -1,42% -1,47% -3,34%
99% -2,30% -1,70% -1,86% -3,95% 99,90% out sample -2,28% -2,83% -5,52% 99,99% out sample -2,76% -3,80% -7,21%
2ª perda extrema, -6,58%, correspondente ao retorno no 1176 da amostra
Nível de Confiança SH Normal Logística GVE
95% -1,31% -1,34% -1,32% -3,66% 97,50% -1,71% -1,61% -1,66% -4,52%
99% -2,36% -1,93% -2,10% -5,85% 99,90% -6,90% -2,58% -3,19% -10,53%
3ª perda extrema, -7,40%, correspondente ao retorno no 1940 da amostra
Nível de Confiança SH Normal Logística GVE
95% -1,64% -1,64% -1,62% -4,12% 97,50% -2,17% -1,97% -2,03% -4,94%
99% -2,71% -2,34% -2,56% -6,13% 99,50% -6,63% -2,60% -2,95% -7,12%
Fonte: cálculos da autora.
66
Tabela 4.9 - Perdas extremas da série de seguro de incêndio no período amostral total e estimativas de perdas máximas esperadas considerando diversos níveis de confiança Perdas máximas ocorrência
263,25 82 152,41 1856 144,66 2121
1ª perda extrema, 263,25, correspondente à perda no 82 da amostra
Nível de Confiança
Distribuição Empírica Lognormal GVE
95% 13,56 12,18 27,02 97,5% 17,48 16,13 38,92
99% 22,77 22,37 62,11 99,9% 25,87 44,24 194,31
99,95% 26,04 52,90 272,72 2ª perda extrema, 152,41, correspondente à perda no 1856 da amostra
Nível de Confiança
Distribuição Empírica Lognormal GVE
95% 9,35 12,29 55,32 97,5% 16,22 18,89 77,89
99% 25,59 31,15 120,44 99,9% 33,68 43,79 166,23
99,95% 58,61 88,37 346,50 3ª perda extrema, 144,66, correspondente à perda no 2121 da amostra
Nível de Confiança
Distribuição Empírica Lognormal GVE
95% 9,35 12,29 55,32 97,5% 16,22 18,89 77,89
99% 25,59 31,15 120,44 99,9% 33,68 43,79 166,23
99,95% 58,61 88,37 346,50 Fonte: cálculos da autora.
Pela observação das tabelas 4.6 a 4.9 conclui-se que as estimativas de perdas
máximas esperadas geradas pela distribuição GVE são mais eficazes para as previsões das
perdas extremas indicadas pelas outras técnicas.
A grande preocupação com o risco é a capacidade de prever exceções. Dessa
forma, as caudas da distribuição de probabilidade são de grande importância do ponto de
vista do risco, tornando a TVE de grande valia na estimação mais acurada do risco de perda
adicional presente em períodos de alta instabilidade.
CAPÍTULO 5. CONCLUSÃO
Investigou-se, neste trabalho, a estimação de perdas máximas esperadas para
séries financeiras e de seguros empregando-se:
• as metodologias tradicionais, que utilizam todos os dados amostrais na
estimação da variável aleatória em questão; e
• a metodologia dos Valores Extremos, que utiliza apenas os máximos
amostrais na estimação da previsão de perdas máximas esperadas.
Para as séries financeiras constatou-se que:
• o VaR Normal subestima a exposição ao risco de mercado para níveis de
confiança elevados;
• a hipótese de normalidade não é adequada para representar ao retornos
das amostras analisadas;
• a distribuição Logística apresentou o melhor ajuste em detrimento de outras
distribuições contidas no Software Bestfit, seguindo os testes K-S e A-D,
entretanto, todas as distribuições ajustadas, utilizando-se a amostra total
de dados, foram rejeitadas. O ajuste se torna mais inadequado à medida
que se aproxima das caudas;
• a utilização da distribuição empírica, simulação histórica, construída a partir
da amostra de dados apresenta como desvantagem, dependendo do
tamanho da amostra n, a impossibilidade de estimação de quantis
inferiores a 1/n;
• a hipótese do ajuste pela distribuição GVE aos retornos mínimos amostrais
não foi rejeitada, ao nível de significância de 5%;
• a aplicação da metodologia TVE se mostrou satisfatória para a estimação
das perdas esperadas em períodos de instabilidade financeira
considerando elevados níveis de confiança.
Ressalte-se que, o VaR obtido pelos diversos métodos apresentados é apenas
uma estimativa do verdadeiro valor em risco, que é obviamente desconhecido. Deve-se
estar ciente da presença do erro de estimativa no cálculo do VaR. A estimação de um valor
68
para o VaR não deve constituir, portanto, o único referencial para o controle e gestão dos
riscos de mercado.
É mister observar se o período histórico utilizado para o cálculo do VaR tem
semelhança com o período futuro para o qual se está estimando a volatilidade,
considerando-se que, a volatilidade dos retornos de um ativo se modifica ao longo do tempo.
O objetivo de um sistema de gestão de risco consiste em determinar o montante
de capital que um investidor deverá manter de forma a garantir o cumprimento de uma
obrigação financeira. Esta decisão envolve um trade-off:: 1) se o montante do capital a ser
resguardado for fixado em um nível demasiadamente elevado, os investidores não serão
incentivados a entrar no mercado; 2) se o montante de capital for fixado a um nível
demasiadamente baixo, existe o risco de o investidor não cumprir suas obrigações em
condições adversas. Com isso, torna-se extremamente importante a escolha da correta
metodologia de VaR em conjunto com o nível de confiança desejado.
Sugere-se para estudos posteriores a utilização da Volatilidade Condicional em
conjunto com a Teoria dos Valores Extremos para acomodar a massa de probabilidade
adicional presente em períodos de alta volatilidade.
Em períodos de estabilidade financeira, em condições normais de mercado, as
metodologias convencionais de estimação do VaR são satisfatórias. Com isso, CORONADO
(2000, p. 3) revela que a Teoria dos Valores Extremos é de grande relevância para se somar
aos métodos existentes de mensuração do VaR :
En conclusión, la Teoría de los Valores Extremos sirve como análisis complementario del VaR y no como "sustituto" del VaR. Este es, también, el espíritu de la frase que el presidente de la Reserva Federal, Alan Greenspan, pronuncia en la Joint Central Bank Conference "Risk Measurement and Systemic Risk", del Board of Governors of the Federal Reserve System, el 16 de noviembre de 1996 en Washington D.C.: "Work that characterizes the statistical distribution of extrem events would be useful, as well".
69
Para a série de seguro de incêndio constatou-se que:
• a distribuição Lognormal, bastante utilizada na precificação de seguros,
apresentou o melhor ajuste em detrimento de outras distribuições contidas
no Software Bestfit, consoante os testes K-S e A-D; entretanto, todas as
distribuições ajustadas utilizando-se a amostra total de dados foram
rejeitadas.
• a utilização da distribuição empírica construída a partir da amostra de
dados apresenta como desvantagem, dependendo do tamanho da amostra
n, a impossibilidade de estimação de quantis para níveis elevados de
confiança;
• a hipótese do ajuste pela distribuição GVE às perdas máximas amostrais
não foi rejeitada, ao nível de significância de 5%;
• a aplicação da metodologia TVE se mostrou satisfatória para a estimação
de perdas extremas, considerando-se elevados níveis de confiança.
De igual forma às séries financeiras, para a série de seguros se faz mister
observar se o período histórico utilizado para o cálculo da previsão de perdas esperadas
tem semelhança com o período futuro para o qual se deseja analisar. Como exemplo de
modificações na previsão de perdas futuras, têm-se as alterações na legislação de seguro
saúde ⎯ regulação da ANS nos seguros de saúde aumentando a cobertura médica; este
mandamento legal pode afetar significativamente o montante e a variabilidade futura das
perdas em contratos com coberturas muito discrepantes das estipuladas em norma.
A Teoria dos Valores Extremos se torna de grande relevância, pois o mercado
financeiro e o mercado de seguros apresentam uma preocupação comum: a necessidade
premente de quantificar de forma adequada reservas para suportar perdas extremas.
REFERÊNCIAS BIBLIOGRÁFICAS
BAUTISTA, E. A. L. A distribuição Generalizada de Valores Extremos no estudo da velocidade máxima do vento em Piracicaba. Piracicaba: Universidade de São Paulo, 2002. 47p. (Dissertação de Mestrado em Agronomia). BENSALAH, Y. Steps in Applying Extreme Value Theory to Finance: A review. 2000. Bank of Canada. Disponível em: <http://www.bankofcanada.ca/en/res/wp00-20.htm>. Acesso em: 12 de outubro de 2003. BEIRLANT, J.; MATTHYS, G. The Generalized Extreme Value Distribution and Statistics of máxima. 2001. Disponível em: <http://www.kuleuven.ac.be/ocs/research/publi.htm>. Acesso em: 15 de dezembro de 2003. BERNSTEIN, Peter L. Desafio do Deuses – A fascinante história do Risco. Rio de Janeiro: Campus, 1997. BOWERS, et al. Actuarial Mathematics. Itasca: Society of Actuaries, 1986. CHAVEZ, V.; ROEHRL, A. Extreme Value Theory can save your neck, 2004. Disponível em <http://www.approximity.com/papers/TVE_wp.pdf>. Acesso em: 25 de janeiro de 2004. CORONADO, María. Extreme Value Theory (TVE) for Risk Managers: Pitfalls and Opportunities In The Use of TVE in Measuring VaR, Madrid: Facultad de Ciencias Económicas y Empresariales.Universidad P. Comillas de Madrid, 2000. CUNHA, M. C. Métodos Numéricos. 2ª ed. Campinas: Ed. da Unicamp, 2000. EMBRECHTS, P. et al. Extreme Value Theory as a Risk Management Tool. 1998.ETH preprint. Disponível em:<www.math.ethz.ch/~embrechts>. Acesso em: 18 de dezembro de 2003. EVANS, Merran. Statistical Distributions 2ª ed. New York: John Wiley, 1993. GENÇAY, R. et al. Evim: A Software package for Extreme Value Analysis in MATLAB. 2002.Disponível em: <http://www.bilkent.edu.tr/~faruk>. Acesso em: 18 de novembro de 2003.
71
HOSSACK, I.B. , et al. Introductory Statistics with Applications in General Insurance. Cambridge: Cambridge University Press, 1983. JORION, Philippe. Value at Risk: A Nova Fonte de Referência para o Controle do Risco de Mercado. São Paulo: Bolsa de Mercadorias & Futuros, 1998. J.P. Morgan Bank . Riskmetrics Technical Manual, 1996. 4 ed., J. P. Morgan Bank,New York. Disponível em:<http://www.riskmetrics.com/research/techdocs>. Acesso em: 11 de outubro de 2003. KAAS et alii. Modern Actuarial Risk Theory. Boston: Kluwer, 2001. KELLEZI, E. ; GILLI, M. Extreme value theory for tail related measures, 2000. Working paper, University of Geneva. Disponível em: <http://www.gloriamundi.org>. Acesso em: 5 de janeiro de 2004. LAW, A. M. e KELTON W. D. Simulation Modeling & Analysis, 2. ed., New York: McGraw-Hill, 1991. MENDES, Beatriz V. de M. Uma Introdução à Analise de Valores Extremos. Rio de Janeiro: E-papers Serviços Editoriais, 2004. MORETTIN, P. A. e BUSSAB, W. DE O. Estatística Básica. 5. ed., São Paulo: Saraiva, 2002. NAYLOR, T. et alii. Técnicas de simulação em computadores. São Paulo:Vozes, 1987. PINTO, F. C. Teoria de Valores Extremos: aplicação ao Mercado Financeiro. Rio de Janeiro: Editora BM&F. 2002. SÁ, Gerando Tosta de. Administração de Investimentos: Teoria de Carteiras e Gerenciamento do Risco. Rio de Janeiro: Qualitymark, 1999. SIEGEL, Sidney. Estatística não-paramétrica para as ciências do comportamento. São Paulo: McGRAW HILL, 1975 SOUZA, Luiz Alvarez Rezende. Valor em Risco em Épocas de Crise. São Paulo: USP/Faculdade de Economia e Administração, 1999.(Dissertação de Mestrado em Economia).
STRAUB, Erwin. Non-life Insurance Mathematics. Zurich: Associatio of Swiss Actuaries, 1998.
72
APÊNDICE A – Características das Distribuições Generalizadas de Valores Extremos - GVE
I - Distribuição GVE do tipo Fréchet ou Weibull com parâmetro 0≠ξ .
DESCRIÇÃO DISTRIBUIÇÃO FRÉCHET E DISTRIBUIÇÃO DE WEIBULL
Parâmetros parâmetro de localização: μ ;
parâmetro de escala: σ ;
parâmetro de forma (densidade da cauda): 0≠ξ
Intervalo -∞ < x < μ - σ/ξ para ξ<0
μ - σ/ξ < x < +∞ para ξ>0
Função Densidade
Função Repartição ou
Função Distribuição
Média
Variância
Notas As distribuições GVE apresentam os relacionamento abaixo: Weibull~XGumbel~XlnFréchet~X α 1−−⇔⇔ se X > 0.
A distribuição de Fréchet corresponde a um modelo com cauda inferior finita e cauda superior infinita. De outra forma, a distribuição de Weibull possui cauda superior finita, sendo segundo Bautista (2002, p5) mais apropriada para estudar variáveis que têm limitações em magnitude por razões geofísicas como o caso de variáveis associadas a certos fenômenos naturais, como por exemplo, terremotos e ventos.
x exp)x(Fx
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
⎟⎟⎠
⎞⎜⎜⎝
⎛⎟⎠⎞
⎜⎝⎛ −
+−=−ξ
σμξ
1
1 0 σμx
ξ1 onde >⎟⎟⎠
⎞⎜⎜⎝
⎛ −+
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −
+−⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −
+=−⎟
⎠⎞
⎜⎝⎛ +
−ξξ
ξ
σμξ
σμξ
σ
11
111 x expx)x(f x
( )[ ] ξ se,ξξσμ)X(E 111 <−−Γ+=
( ) ( )[ ]21121 2 ξ se,ξξ
ξσVaR(X) 2
2<−Γ−−Γ=
73
II - Distribuição GVE do tipo Gumbel parâmetro 0=ξ .
DESCRIÇÃO DISTRIBUIÇÃO GUMBEL
Parâmetros parâmetro de localização: μ ;
parâmetro de escala: σ .
Intervalo -∞ < x < +∞
Função Densidade
Função Repartição ou
Função Distribuição
Média
onde: representa a constante de Euler aproximadamente igual a 0,577216.
Variância
Notas As distribuições GVE apresentam os relacionamento abaixo: Weibull~XGumbel~XlnFréchet~X α 1−−⇔⇔ se X > 0.
A distribuição de Gumbel é a mais comum das três distribuições de valores extremos, sendo mais freqüentemente utilizada quando a variável aleatória é ilimitada.
A distribuição de Gumbel é também conhecida como distribuição de Gompertz.
0 σμx
ξ1 onde >⎟⎟⎠
⎞⎜⎜⎝
⎛ −+
γσμ)X(E +=
6
22σπ=VaR(X)
xexpexp)x(Fx ⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −−−=
σμ
⎭⎬⎫
⎩⎨⎧
⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −−−⎟
⎠⎞
⎜⎝⎛ −−=
σμ
σμ
σxexpexpxexp)x(f x
1
γ
74
APÊNDICE B –Características das distribuições Normal x Logística
DESCRIÇÃO DISTRIBUIÇÃO NORMAL DISTRIBUIÇÃO LOGÍSTICA
Parâmetros parâmetro de localização:
μ = média;
parâmetro de escala:
σ > 0, desvio-padrão .
parâmetro de localização:
a = média ;
parâmetro de escala:
b > 0 .
Intervalo - ∞ < x < ∞ - ∞ < x < ∞
Função Densidade
( )
2)x(exp
2
12
2
21 ⎥
⎦
⎤⎢⎣
⎡ −−σμ
πσ
b)ax(exp1b
b)ax(exp
2
⎭⎬⎫
⎩⎨⎧
⎥⎦⎤
⎢⎣⎡ −
+
⎥⎦⎤
⎢⎣⎡ −
Função Repartição
-
1
b)ax(exp1
−
⎭⎬⎫
⎩⎨⎧
⎥⎦⎤
⎢⎣⎡ −−+
Média μ a
Variância σ2
3b 22π
Coeficiente de
Assimetria
0 0
Coeficiente de Curtose 3 4,2
75
( ) 0x , e
2x
1f(x) 2
2
2x - ln-
2>= σ
μ
πσ
( ) 1e2e22
−⋅+ σσ
APÊNDICE C–Características da distribuição Lognormal
A distribuição Lognormal é uma transformação exponencial da distribuição
Normal. Para pequenos desvios-padrões, as observações da variável aleatória Normal
aproximam-se das observações da variável aleatória Lognormal.
Por causa de sua forma aderente a certas realidades securitárias, a distribuição
Lognormal é bastante utilizada para representar a severidade das perdas com
indenizações de seguros. Sua cauda medianamente espessa à direita pode ajustar-se
satisfatoriamente a diversas situações.
DESCRIÇÃO EXPRESSÃO
Parâmetros
Intervalo
Função Densidade de Probabilidade
Função Repartição Não possui forma fechada.
Média
Variância
Coeficiente de Assimetria
2
2
eσ
μ+
( ) 22 2e1e σμσ +⋅−
∞<<∞> μσ - ,0
∞<≤ x0
76
APÊNDICE D - Programa em Matlab para geração de arquivo com os parâmetros da distribuição GVE projetadas utilizando uma janela móvel de 1000 dados %______________ Estimadores para distribuiçao GVE _________________ % ----------- estimadores GVE para Danos com Seguro de Incendio---- % -------- por Alane Siqueira Rocha em fevereiro de 2004 --------- echo on clear load c:\matlabr12\caen\var_tve.mat m=length(dan_todos); clc for k = 0:m-1000 k cd('C:\matlabr12\caen'); dan_aux=dan_todos(k+1:k+1000); cd('C:\matlabr12'); out=GVE(dan_aux,21); saidadan(k+1,1)=out.par_ests(1); saidadan(k+1,2)=out.par_ests(2); saidadan(k+1,3)=out.par_ests(3); end s=char(' ----- Fim --------'); save('c:\matlabr12\caen\paramTVE_danos.txt','saidadan','-ASCII') Nota: para a geração dos parâmetros GVE projetados para as séries financeiras utiliza-se a mesma lógica acima descrita
77
APÊNDICE E - Programa em Fortran para o cálculo das perdas esperadas futuras(VaR) para as séries financeiras !****** Program TVE ************************************************ !por Alane Siqueira Rocha !t=1 -- horizonte de um dia !******************************************************************* Program TVE use portlib use msimsl use msflib implicit none integer*4 i_posr1hist integer*4 i_parametros, i_k, i_j, i_janela, n_retornos real*8 r_conf, r_retorno real*8 r_media,r_sigma2,r_x,r_p,r_alfa,r_beta,r_xi
real*8 r_sigmatve,r_mutve real*8 r_r1varhist,r_r1vardelta,r_r1varlogis,r_r1vartve real*8,allocatable:: vr_retorno(:),vr_retorno_aux(:) real*8,allocatable:: vr_r1varhistord(:) ! Entrada de dados pelo teclado write (*,'(/," Numero de retornos:",\)') read(*,*) n_retornos write(*,*) n_retornos write (*,'(/," Janela movel:",\)') read(*,*) i_janela write(*,*) i_janela write (*,'(/," Nivel de confianca:",\)') read(*,*) r_conf write(*,*) r_conf i_parametros = n_retornos - i_janela !dimensionamento de vetores allocate (vr_r1varhistord(i_parametros+1)) allocate(vr_retorno(n_retornos+1),vr_retorno_aux(n_retornos+1)) write (*,*) write (*,*) ' Estudo Empírico da TVE ' write (*,*) ' ===========================================' ! para o cálculo do VaR dos índices open (unit = 1, file = 'c:\tve_fortran\medvari.txt') open (unit = 2, file = 'c:\tve_fortran\retornos.txt') open (unit = 3, file = 'c:\tve_fortran\paramTVE.txt') open (unit = 4, file = 'c:\tve_fortran\saida.txt') do i_k =1, n_retornos ! retornos
read(2,*) r_retorno vr_retorno(i_k)=r_retorno
end do
78
do i_k =1, i_parametros ! simulacao do var diário futuro read(1,*) r_media,r_sigma2 read(3,*) r_xi,r_sigmatve,r_mutve do i_j= i_k,(i_k+(i_janela-1)) vr_retorno_aux(i_j-i_k+1)=vr_retorno(i_j) end do call dsvrgn(i_janela,vr_retorno_aux,vr_r1varhistord) i_posr1hist = int4((i_janela-1)*(1-r_conf)+0.05) if (i_posr1hist .eq. 0) then r_r1varhist=999 ! fora da amostra else r_r1varhist=vr_r1varhistord(i_posr1hist) end if r_x = DNORIN(r_conf) r_r1vardelta = -r_x*sqrt(r_sigma2)+r_media r_alfa=r_media r_p=const('Pi') r_beta=sqrt((3*r_sigma2)/(r_p**2)) r_r1varlogis= r_alfa+r_beta*dlog((1-r_conf)/(r_conf)) r_r1varTVE=-(r_mutve+r_sigmatve/r_xi*((-dlog(r_conf))**
(-r_xi)-1)) write (*,*) i_k write(4,'(i4,\)') i_k write(4,'(f10.6,\)') r_r1varhist ! var dados históricos write(4,'(f10.6,\)') r_r1vardelta ! var aprox. normal write(4,'(f10.6,\)') r_r1varlogis ! var logistica write(4,'(f10.6)') r_r1varTVE ! var TVE end do end program TVE
79
APÊNDICE F - Programa em Fortran para o cálculo das perdas esperadas futuras para a série de seguro de incêndio !*Program TVE_seguro ****************************************** !por Alane Siqueira Rocha !Perdas em um Seguro de Incêndio !************************************************************** Program TVE_seguro use portlib use msimsl use msflib implicit none integer*4 i_poshist integer*4 i_parametros, i_k, i_j, i_janela, n_danos real*8 r_conf, r_danos real*8 r_media,r_sigma2,r_medianor,r_sigma2nor,r_x,r_xi
real*8 r_sigmatve,r_mutve real*8 r_danoshist,r_danoslogn,r_danostve real*8,allocatable:: vr_danos(:),vr_danos_aux(:) real*8,allocatable:: vr_danoshistord(:) ! Entrada de dados pelo teclado write (*,'(/," Janela movel:",\)') read(*,*) i_janela write(*,*) i_janela write (*,'(/," Nivel de confianca:",\)') read(*,*) r_conf write(*,*) r_conf n_danos = 2167 i_parametros = n_danos - i_janela !dimensionamento de vetores allocate (vr_danoshistord(i_parametros+1)) allocate (vr_danos(n_danos+1),vr_danos_aux(n_danos+1)) write (*,*) write (*,*) ' Estudo Empírico da TVE '
write (*,*) ' ===========================================' open(unit=1,file='c:\tve_seguro\medvari_danos.txt') open(unit=2,file='c:\tve_seguro\danos.txt') open(unit=3,file='c:\tve_seguro\paramTVE_danos.txt') open(unit=4,file='c:\tve_seguro\saida_danos.txt')
do i_k =1, n_danos read(2,*) r_danos vr_danos(i_k)=r_danos end do
80
do i_k =1, i_parametros ! simulacao da perda futura read(1,*) r_media,r_sigma2 read(3,*) r_xi,r_sigmatve,r_mutve do i_j= i_k,(i_k+(i_janela-1)) vr_danos_aux(i_j-i_k+1)=vr_danos(i_j) end do call dsvrgn(i_janela,vr_danos_aux,vr_danoshistord) i_poshist = int4((i_janela)*(r_conf)) if (i_poshist .gt. i_janela) then r_danoshist=999 ! fora da amostra else r_danoshist=vr_danoshistord(i_poshist) end if r_x = DNORIN(r_conf) r_sigma2nor=dlog(((r_sigma2)/(r_media**2))+1) r_medianor=dlog(r_media)-(1/2.0d0)*r_sigma2nor r_danoslogn=exp(r_medianor+sqrt(r_sigma2nor)*r_x) r_danosTVE=(r_mutve+r_sigmatve/r_xi*((-dlog(r_conf))**
(-r_xi)-1)) write (*,*) i_k write(4,'(i4,\)') i_k write(4,'(f20.6,\)') r_danoshist ! dados históricos write(4,'(f20.6,\)') r_danoslogn ! Lognormal write(4,'(f20.6)') r_danosTVE ! TVE (GVE) end do end program TVE_seguro