Upload
vuhanh
View
219
Download
0
Embed Size (px)
Citation preview
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 1
Escuela Técnica Superior de Ingeniería Informática
Máster Oficial en Ingeniería y Tecnología del Software
TRABAJO FIN DE MÁSTER
Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos.
Autor:
D. Ricardo - León Talavera Llames
Tutores:
Dr. José C. Riquelme Santos
Dr. Francisco Martínez Álvarez
Convocatoria de Junio
Curso 2012/2013
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 2
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 3
Agradecimientos
Comenzaré este apartado dando las gracias a Pepe, por la gran oportunidad que
me ha brindado, totalmente desinteresada, de trabajar en este ámbito que
desconocía, y por darme la posibilidad de conocer otro campo que, de otra manera, no
hubiera podido aprender durante este curso, animando esa parte investigadora de mí
y a plantearla como una posibilidad real de futuro.
A Paco, que comenzó siendo profesor, y ha acabado siendo, para mi suerte, una
persona importante en mi vida, un gran amigo. No hay palabras para describir la
eterna gratitud que le profeso, autentico artífice de que este hoy donde me encuentro
ahora. Siempre dispuesto a sacrificarse y a ayudar con cualquiera que lo necesite.
Gracias de corazón.
A los compañeros del máster, porque aunque éramos dos grupos, hemos
conseguido sentirnos como uno sólo por la solidaridad y, valga la redundancia,
compañerismo de cada uno de ellos, siempre dispuestos a ayudar en lo que se
necesitara.
A mis compañeros de equipo de trabajo, Myriam y Javi, por su enorme talento y
aún más paciencia, fuente de inspiración y de los que también he aprendido mucho.
A “los mosqueteros”, Antonio, Guillermo y Matías, sin cuyo apoyo y amistad no
hubiera sobrellevado de igual forma esas largas horas en el búnker. Su sencillez,
amabilidad, optimismo y humor han hecho que este curso haya sido la gran
experiencia que ha resultado ser y cuya amistad sé que tendré siempre.
A mi familia, por su apoyo incondicional, no sólo ahora sino durante toda mi vida.
Su fe ciega en mí me ha hecho levantarme cuando caía. También por su cariño
conmigo sin emitir una queja. Ellos son los grandes protagonistas en todas mis metas
alcanzadas.
A mis amigos, porque a pesar que a veces nos separen kilómetros de distancia,
siempre los he sentido cerca, y con su cariño y comprensión, han sido el hombro
donde apoyarme cuando me han faltado las fuerzas.
A los profesores de este máster, por su dedicación e ilusión en cada materia
impartida, y que han posibilitado abrirnos aún más las puertas de ese futuro, un tanto
oscuro, que nos aguarda.
Y a todas las personas que han pasado este año por mi vida, porque en mayor o
menor medida, han influido en mi persona para que llegue hasta este momento.
Gracias a todos.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 4
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 5
Resumen
Durante la realización de este trabajo se ha realizado un proceso completo de
Kwnoledge Discovery in Databases (KDD) en datos de origen sísmico. En concreto, se
han analizado las series temporales registradas en los últimos once años en la región
de Chile, caracterizada por su gran actividad sísmica a lo largo de la historia. En
particular se ha desarrollado una metodología para el reconocimiento de patrones
precursores de grandes terremotos en Chile. Para ello se ha realizado un estudio
exhaustivo de los antecedentes existentes hasta el momento en este campo y se ha
aplicado el proceso de KDD sobre los datos como sigue:
1. Adquisición de los datos, masiva y de un periodo de tiempo determinado, según
unos criterios que se explican en detalle.
2. Limpieza de los datos. Debido a la gran cantidad de los mismos, es posible
encontrar datos no completos o sesgados, por lo que se han eliminado atributos
con significancia mínima así como aquellos que ofrecían errores o valores
ausentes.
3. Generación de nuevos atributos, con la ayuda de personal experto en sismología.
Se ha incorporado información geológica como datos de entrada de los sistemas
utilizados.
4. Selección de atributos significativos, mediante técnicas que miden el peso
aportado por cada uno de los que forman la base de datos.
5. Aplicación de algoritmos de minería de datos, para el reconocimiento de patrones,
centrándose en clustering y más en concreto en la técnica de K-means.
El estudio se ha enfocado en cuatro zonas del país de Chile, Talca, Pichilemu,
Santiago y Valparaíso, obteniéndose unos resultados y valoraciones que serán
expuestos a lo largo del mismo.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 6
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 7
Contenido
Capítulo 1 . Introducción ............................................................................................................... 8
Capítulo 2 . Estado del arte ......................................................................................................... 11
2.1 Resumen ..................................................................................................................... 11
2.2 Introducción ................................................................................................................. 11
2.3 Modelos de procesos físicos ....................................................................................... 15
2.4 Modelos de sismicidad arreglados .............................................................................. 36
2.5 Conclusiones ............................................................................................................... 53
Capítulo 3 . Descubrimiento de conocimiento a partir de grandes bases de datos (KDD)......... 58
3.1 Introducción ................................................................................................................. 58
3.2 Adquisición de datos ................................................................................................... 60
3.3 Preprocesamiento y transformación ............................................................................ 61
3.4 Minería de datos .......................................................................................................... 62
3.5 Evaluación ................................................................................................................... 76
3.6 Interpretación ............................................................................................................... 77
Capítulo 4 . Reconocimiento de patrones precursores de grandes sismos ............................... 80
4.1 Adquisición de datos ................................................................................................... 80
4.2 Preprocesamiento y transformación ............................................................................ 81
4.3 Minería de datos .......................................................................................................... 83
Capítulo 5 . Resultados ............................................................................................................... 88
5.1 Resultados Talca ......................................................................................................... 88
5.2 Resultados Pichilemu .................................................................................................. 90
5.3 Resultados Santiago ................................................................................................... 91
5.4 Resultados Valparaíso ................................................................................................ 93
Capítulo 6 . Conclusiones ........................................................................................................... 98
Capítulo 7 . Referencias ............................................................................................................ 100
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 8
Capítulo 1 . Introducción
El hombre es el único animal racional que existe en la naturaleza. Y como tal, hay
un aspecto que siempre le ha atraído por encima de cualquier otro, la búsqueda de
conocimiento. La principal razón para esto se puede demostrar con sólo dos frases: “El
conocimientos es poder” y “Sólo se teme lo que no se conoce”. Por lo tanto, esta ha
sido siempre su meta, y no se ha parado ante nada para conseguirlo. Ni siquiera ante
su propia antítesis, el desconocimiento. Es algo que se encuentra en la naturaleza de
todos y cada uno de los seres humanos.
Así, por ejemplo, surgieron los mitos y las leyendas. El hombre encontraba
fenómenos que no podía explicar o no alcanzaba a comprender y creaba estas
historias para intentar darles explicación.
Y uno de estos fenómenos que no llegaba a entender eran los terremotos. La Real
Academia de la Lengua Española (RAE) define literalmente a los terremotos como
“sacudida del terreno, ocasionada por fuerzas que actúan en lo interior del globo”
(http://lema.rae.es/drae/?val=terremoto). Aunque no es una definición completa,
define a grandes rasgos a tal sorprende evento. Pero este conocimiento no ha sido tan
obvio a lo largo de la historia. El estudio de seísmos es muy antiguo, y se han
encontrado registros sobre estos con una antigüedad de 3000 años en China, de 1600
años en Japón y Europa oriental e incluso en códices mayas y aztecas en América. Pero
que se registraran no quiere decir que se comprendieran. Así, han sido muchas las
culturas que lo atribuían a intervenciones divinas asociada al castigo o la ira de estos
seres superiores. Por poner dos ejemplos, en Japón se atribuía a un gran pez gato
llamado Namazu, que yacía bajo tierra y era controlado por un dios. Cuando este se
descuidaba, el pez se movía y con fuertes sacudidas de su cola hacía que la tierra
temblara. En la mitología griega sin embargo, se atribuía a Poseidón, el dios del mar,
quién hacía tambalear a Atlas, el cual sostenía el mundo sobre sus hombros, y
generaba terremotos.
Hoy en día, gracias a los grandes avances científicos en todos los campos, se ha
podido explicar detalladamente el origen de estos sorprendentes fenómenos,
registrando todo tipo de información acerca de ellos.
Así, se plantea la posibilidad de usar esta gran cantidad de información para
intentar entenderlos, y más importante aún, intentar predecirlos. Pues aquí se
encuentra otra de las obsesiones del ser humano, el conocimiento del futuro.
Anticipar acontecimientos y actuar en consecuencia ha sido el objetivo de muchos
científicos a lo largo de toda la historia. El hombre siempre ha querido conocer el
futuro. ¿Quién podría negarse a contemplar semejante visión? Sobre todo para actuar
en base a ello y antes de que los hechos así se dieran
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 9
Es esta idea, la de la visión del futuro, la que llevo al hombre a desarrollar sistemas
de simulación. Estas ofrecen una idea general de cómo se desarrollará un proceso así
como entender qué factores pueden influir sobre este y como lo harán, anticipando
medidas y ayudando a la toma de decisiones, con el respectivo ahorro, no solo de
coste, sino de tiempo y esfuerzo, que esto conlleva, Pues no se debe olvidar que los
terremotos son fenómenos que provocan grandes pérdidas tanto humanas como
económicas. No en vano terremoto de mayor magnitud registrada ocurrió en Chile, en
1960 y alcanzo una M=9,5. Sus efectos fueron 962 muertos y 1410 desparecidos,
además de dañar en algunas de las ciudades cercanas al epicentro, el 65% de las
viviendas.
Actualmente se cuenta con grandes cantidades de información almacenadas,
pero ¿cómo extraer alguna conclusión de esos datos? ¿Siguen algún patrón? ¿Es
posible predecirlos?
Es en este punto donde se centra el objeto de este estudio. Con la ayudad de
técnicas estadísticas, inteligencia artificial e informática, se intentará dar una respuesta
en este campo. Para ello, el trabajo de este estudio se apoyará en el proceso KDD (del
inglés, Knowledge Discovery in Datatabases) o descubrimiento de información en
bases de datos. Cómo se explicará más detalladamente más adelante, este proceso
consiste en el descubrimiento de existencia de información valiosa pero desconocida
con anterioridad. Consta de varias fases, como son la adquisición de datos,
preprocesamiento y transformación, minería de datos, evaluación e interpretación. Se
hará bastante hincapié en la etapa de minería de datos, pues se considera la más
importante para el descubrimiento de información.
Se ha escogido Chile debido a que es considerado uno de los países más activos,
en términos sísmicos, debido en gran parte por su ubicación en el Cinturón de fuego
del Pacífico. Se le llama así por encontrarse el territorio continental junto a la zona de
subducción de la placa de Nazca, bajo la placa Sudamericana, mientras que al sur, la
subducción se produce por la placa Antártica que se mueve a menor velocidad.
Se plantean, por tanto, los siguientes objetivos en este trabajo:
1. Estudio de datos de origen sismológico de uno de los países con mayor
actividad del mundo: Chile. Se ha contado con el apoyo del Instituto Geográfico
de Chile que, amablemente, ha proporcionado el catálogo de datos ya
preprocesado.
2. Desarrollo de una metodología para el descubrimiento de patrones precursores
de terremotos en cuatro regiones chilenas. Estas regiones se seleccionaron
debido a su alta actividad sísmica y a las diferentes propiedades geofísicas que
éstas presentan, con el fin de obtener resultados lo más generalizables posible.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 10
3. Dejar patente la utilidad de la minería de datos en un campo tradicionalmente
dominado por sismólogos.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 11
Capítulo 2 . Estado del arte
2.1 Resumen
Los sistemas de terremotos de fallas interactúan sobre un amplio espectro de
escalas espaciales y temporales, y en años recientes, estudios sobre la sismicidad
regional en una gran variedad de regiones han producido un gran número de nuevas
técnicas para la predicción de terremotos basados en la sismicidad. A pesar de que
una gran variedad de supuestos físicos y aproximaciones científicas son incorporados
en varias metodologías, todos ellos se esfuerzan en replicar con precisión las
estadísticas y propiedades de los registros sísmicos históricos e instrumentales. Como
resultado, los últimos diez años han visto progresos significativos en el campo de la
predicción de terremotos basados en la sismicidad a medio y corto plazo. Estos
incluyen acuerdos generales en la necesidad de tests prospectivos e intentos de éxito
para estandarizar los métodos de evaluación y la apropiada hipótesis nula.
Aquí diferenciamos los enfoques predominantes en los modelos basados en
técnicas para identificar procesos físicos y aquellas que filtran o arreglan/suavizan la
sismicidad. La comparación de los métodos sugiere que mientras los modelos sísmicos
arreglados/suavizados proporcionan mejor capacidad de predicción en periodos de
tiempo más largos, se logra una mayor probabilidad durante periodos de tiempo más
cortos con métodos que integran técnicas estadísticas con el conocimiento de los
procesos físicos, tales como el modelo de secuencia de réplica de tipo epidémico (ETAS
del inglés epidemic-type aftershock sequence) o los relacionados con cambios en la
variable b, por ejemplo. En general, mientras ambas clases de predicción basados en
sismicidad están limitadas por el relativamente corto periodo de tiempo disponible
para el catálogo instrumental, se han hecho importantes avances en nuestra
comprensión de las limitaciones y el potencial de la predicción de terremotos basados
en la sismicidad. Existe un acuerdo general entre predicciones a corto plazo,
entendiéndose esto como días o semanas, y predicciones a largo plazo sobre periodos
de entre 5 a 10 años. Este progreso reciente sirve para iluminar la naturaleza crítica de
las diferentes escalas temporales intrínsecas al proceso de los terremotos y la
importancia de datos sísmicos de alta calidad para la correcta cuantificación del peligro
sísmico en función del tiempo.
2.2 Introducción
El impacto que los grandes terremotos causan para la vida y la propiedad es
potencialmente catastrófico. En 2010, el terremoto de magnitud 7.0 en Haití, fue el
quinto más mortal registrado, matando a más de 200.000 personas y causando daños
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 12
valorados en unos 8 billones de dólares (Cavallo et al., 2010). El daño económico
directo del terremoto de magnitud 8.8 que sacudió Chile en febrero de 2010 alcanzó
unos 30 billones de dólares, o lo que es lo mismo, el 18% de la producción económica
anual de Chile (Kovacs, 2010). Como resultado del impacto regional y nacional de
grandes terremotos, las investigaciones en sus predicciones se han realizado desde
hace casi 100 años, con intervalos marcados por el optimismo, el escepticismo y el
realismo (Geller et al., 1997; Jordan, 2006; Kanamori, 1981; Wyss, 1997).
Hace más de diez años, esta controversia eclosionó en lo que ha llegado a ser
conocido en la comunidad como debates sobrela naturaleza(Main, 1999b).
Provocado en gran medida por la aparente falta de éxito del experimento
predictivo de Parkfield (Bakun et al., 2005), se centró en última instancia en la
naturaleza de los propios terremotos y si podrían ser intrínsecamente impredecibles. Si
bien esta cuestión aún no se ha decidido, marcó un punto de inflexión en el campo de
la ciencia de los terremotos. Tal es así que la predicción de terremotos hoy día, o la
evaluación del peligro sísmico en función del tiempo, con errores y probabilidades
asociados, es ahora el estándar en la investigación predictiva de terremotos.
Al mismo tiempo, una gran cantidad de datos sísmicos a niveles de magnitud
progresivamente más pequeños, han sido registrados durante los últimos 40 años. En
parte relacionado con el objetivo original de esfuerzos tales como el experimento de
Parkfield y en parte por el reconocimiento de que hay todavía mucho que aprender
sobre el proceso subyacente, particularmente después de que la predicción de
Parkfield pasará sin ningún terremoto (Bakun et al., 2005).
Si bien se ha reconocido desde hace tiempo que la agrupación temporal y espacial
es evidente en los datos sísmicos, muchas de las investigaciones asociadas con estos
patrones en los primeros años se centraron en una fracción relativamente pequeña de
los eventos principalmente en las magnitudes más grandes (Kanamori, 1981).
Algunos ejemplos incluyen (pero no se limitan) terremotos característicos y
brechas sísmicas (Bakun et al., 1986; Ellsworth and Cole, 1997; Haberman, 1981; Swan
et al., 1980), Mogi donuts y la inactividad precursora (Mogi, 1969; Wyss et al., 1996;
Yamashita and Knopoff, 1989), agrupaciones temporales (Dodge et al., 1996; Eneva
and Ben-Zion, 1997; Frohlich, 1987; Jones and Hauksson, 1997; Press and Allen, 1995),
secuencias de réplicas (Gross and Kisslinger, 1994; Nanjo et al., 1998), transferencia de
tensión y el terremoto desencadenante a grandes distancias (Brodsky,2006; Deng and
Sykes, 1996; Gomberg, 1996; King et al., 1994; Pollitz and Sacks, 1997; Stein, 1999),,
relaciones de escala (Pacheco et al., 1992; Romanowicz and Rundle, 1993; Rundle,
1989; Saleur et al., 1995),, reconocimiento de patrones (Keilis-Borok and Kossobokov,
1990; Kossobokov et al., 1999), y análisis del tiempo transcurrido hasta el fallo
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 13
(Bowman et al., 1998; Brehm and Braile, 1998; Bufe and Varnes, 1993; Jaumé and
Sykes, 1999).
Aunque este cuerpo de la investigación representa importantes intentos para
describir estos patrones característicos usando funciones de densidad de probabilidad
empírica, se vio obstaculizado por las pobres estadísticas asociadas con el pequeño
número de eventos moderados a grandes, ya sea disponible o considerado para el
análisis.
La disponibilidad de nuevos y más grandes conjuntos de datos junto con los
avances computacionales que facilitaban el análisis de complejas series temporales,
incluyendo simulaciones, pruebas estadísticos rigurosos y técnicas de filtrado
innovadoras, dieron un nuevo impulso a la predicción de terremotos cuando el campo
fue aparentemente polarizado por el tema (Nature Debates, Debate on earthquake
forecasting, http://www.nature.com/nature/debates/earthquake, Main, 1999b;
Jordan, 2006).
En 2002, se publicó la primera predicción prospectiva usando datos de terremotos
de baja magnitud (Rundle et al., 2002). Este hecho fue seguido por un renovado
interés en metodologías basadas en la sismicidad y generaron nuevos esfuerzos para
lograr una mejor definición y pruebas de estas técnicas.
Iniciativas importantes en la validación y en el área de pruebas de la predicción de
terremotos incluyen el grupo de trabajo en modelos de probabilidad de terremotos
regional (RELM del inglés Regional Earthquake Likelihood Models) así como The
Collaboratory on the Study of Earthquake Predictability (CSEP) ambos fundados
después del 2.000 (Field, 2007; Gerstenberger and Rhoades, 2010; Zechar et al., 2010).
Aunque una serie de fenómenos precursores potenciales existen además de los
asociados con cambios en la seismicidad, incluyendo precursores de inclinaciones y
tensiones, señales electromagnéticas, fenómenos hidrológicos y emisiones químicas
(Scholz, 2002; Turcotte, 1991), limitamos el análisis a las técnicas predominantes en la
predicción basadas en la seismicidad activamente investigada en los últimos 10 años.
Algunos métodos no analizados aquí incluyen técnicas de predicción asociadas con
interacciones de terremotos como las precursoras a los cambios de velocidad sísmica
(por ejemplo, Crampin and Gao, 2010) o estudios de transferencias de tensión (ver
King et al., 1994; Stein, 1999; y otros).
Aquí se revisa el estado actual de las metodologías de predicción basados en
sismicidad y el progreso realizado en el campo desde el debate de la naturaleza de
1999.
Para no alargar este trabajo en demasía, se limitará el análisis a las metodologías
que dependen del catálogo instrumental para su fuente de datos, el cual intenta
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 14
producir predicciones que son limitadas en tiempo y espacio de alguna manera
cuantificable.
Como resultado, estos métodos principalmente producen predicciones a medio
plazo, en el sentido de años, aunque se incluye un pequeño subconjunto que se basa
en estadísticas de réplicas para generar predicciones a corto plazo del orden de días.
Existen Debates importantes en otra parte del estándar apropiado para suministrar
una previsión de terremotos comprobable (Jackson and Kagan, 2006; Jordan, 2006), así
como la eficacia de varias metodologías de pruebas de predicciones y su evaluación
(por ejemplo, Field, 2007; Gerstenbergerand Rhoades, 2010; Schorlemmer et al., 2007;
Vere-Jones, 1995; Zechar, et al., 2010).
Si bien no hay ningún intento aquí para comprobar la fiabilidad de estas técnicas
de predicción entre ellas o contra una hipótesis nula en particular con estadísticas
rigurosas, en algunos casos se hacen intentos para comparar ya sea una hipótesis nula
de Poisson o una hipótesis nula que incluya la agrupación espacial y temporal como en
el caso del modelo de predicción de la intensidad relativa (RI del inglés relative
intensity) (Holliday et al., 2005) o el modelo de ETAS (por ejemplo Vere-Jones, 1995).
Se discutirá brevemente dichos esfuerzos o la falta de estos, particularmente en
aquellos caso donde el método no ha sido presentado formalmente para evaluaciones
independientes.
Se han separado los métodos discutidos aquí en dos categorías diferentes, aunque
hay algunos solapamientos inevitables. Este trabajo comienza con una revisión del
conjunto de metodologías de predicción basadas en sismicidad, cada una asumiendo
un mecanismo físico en particular, que está asociado con la generación de grandes
terremotos y sus precursores y realiza un análisis detallado en el catálogo instrumental
con el objetivo de aislar dichos precursores. Se designan estos "modelos de proceso
físicos". En este subconjunto también se incluyen dos técnicas que caen ligeramente
fuera de los parámetros descritos anteriormente, la hipótesis de terremotos
característica y la hipótesis de liberación del momento acelerado (ARM del inglés
accelerated moment release).
Si bien ambas usan un subconjunto relativamente pequeño de grandes eventos y
no están formulados de manera óptima para producir predicciones limitadas temporal
y espacialmente, su innegable impacto en la comunidad de predicción de terremotos
obliga a su inclusión aquí.
En la sección 2.4 se detalla la evolución y el estado actual de los modelos sísmicos
suavizados. Estos modelos principalmente se aplican a series de técnicas de filtrado,
normalmente basados en conocimientos o supuestos sobre estadísticas de terremotos
o en datos del catálogo sísmico con el objetivo de predecir en escalas de tiempo
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 15
pequeñas y medianas. Se concluye con un corto debate sobre las limitaciones y futuras
perspectivas de las herramientas de predicción basadas en la sismicidad.
2.3 Modelos de procesos físicos
Los modelos de procesos físicos son aquellos en los que el proceso preliminar se
basa en uno o más mecanismos o fenómenos físicos asociados con la generación de
grandes eventos. Un análisis detallado, normalmente pero no siempre estadístico, se
lleva a cabo en la sismicidad instrumental con el fin de aislar estos precursores.
Estas técnicas están basadas en las suposiciones de que la sismicidad actúa como
un sensor para el proceso físico subyacente y puede proporcionar información sobre la
naturaleza espacial y temporal del proceso. Cabe señalar que si bien la clasificación de
una fuente física y potencialmente verificable para el proceso de generación de un
terremoto es una característica atractiva de estas metodologías, diferenciar entre la
fuente y las variaciones sutiles de los fenómenos sísmicos es difícil. Como resultado,
muchas de estas técnicas se basan en reconocimiento de patrones o en metodologías
estadísticas para aislar la señal espacio-temporal. Una comprensión completa de sus
éxitos y fracasos relativos es a menudo oscurecida por la complicada naturaleza del
análisis, las hipótesis de simplificación del modelo físico y la heterogeneidad que existe
en el mundo real.
Se discutirá estos modelos de proceso físicos que han tenido los mayores impactos
en la materia y son parte de las investigaciones sobre predicción actuales que emplean
catálogos de alta calidad de regiones sísmicas activas.
2.3.1 Liberación del momento de aceleración (AMR)
Las activaciones sísmicas precursoras, o también llamada actividad de sismos
iniciales, han sido observadas antes de un serie de grandes eventos por todo el mundo
(Bakun et al., 2005;Ellsworth et al., 1981; Jones and Molnar, 1979; Jordan and Jones,
2010; Rikitake, 1976; Sykes and Jaumé, 1990). El método aplicado más extendido para
analizar estos aumentos de precursores en la sismicidad son conocidos como análisis
de tiempo hasta el fallo, liberación del momento sísmico de aceleración (ASMR del
inglés accelerating seismic moment release) o liberación del momento de aceleración
(AMR del inglés accelerating moment release) (Ben-Zion and Lyakhovsky,
2002;Bowman and King, 2001; Bowman et al., 1998; Brehm and Braile, 1998; Bufe and
Varnes, 1993; Jaumé and Sykes, 1999; Mignan, 2008; Robinson, 2000; Turcotte et al.,
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 16
2003; entre otros).Si bien, en general, el ARM se encuentra fuera del alcance general
de esta revisión debido a que usa sólo una fracción relativamente pequeña del
catálogo instrumental en sus análisis, y su periodo de tiempo previsto está definido
pobremente y normalmente a largo plazo, es incluido aquí debido a la importante
influencia que ha tenido en la disciplina así como su potencial para la incorporación en
metodologías de predicción en curso.
Una discusión más completa de la historia y teoría del AMR se encuentra en
Mignan (2011).
Estudios recientes han encontrad que la tasa de liberación del momento sísmico
para terremotos de magnitud mayor o igual a 5 se incrementaba con un componente
de aceleración, previo a grandes eventos en el área de San Francisco, antes que
linealmente, y que la velocidad del momento sísmico acumulado se ajustaba mejor con
un modelo incremental exponencialmente (Ellsworth et al., 1981; Sykes and Jaumé,
1990). Bufe and Varnes (1993) aplicado a una ley de potencias de un modelo de
tiempo hasta el fallo (Voight, 1989) hasta las mismas secuencias sísmicas y se
descubrió que la raíz cuadrada de la energía sísmica, o la tensión Benioff acumulada,
proporcionaba una mejor predicción de eventos futuros. Una revisión a fondo
relacionado con el fallo del material y la propagación de grietas por/hasta el
mecanismo del tiempo hasta el fallo se encuentra en Main (1999a)
En la siguiente referencia Bufe and Varnes (1993), la relación para el AMR es ���� = � − ��� − �� (2.3.1)
donde tf es el tiempo del sismo principal, A y B son constantes y m cae típicamente
entre 0,1 y 0,5 con un valor medio de 0,3. ε�t� = ∑ �E�������� es la tensión Benioff
acumulada, donde Ei es el momento sísmico del terremoto i-ésimo (Ben-Zion and
Lyakhovsky, 2002). Sin embargo, Mignan et al. (2007) mostró que es preferible el
número total de eventos, de tal manera que la sismicidad acelerativa precursora
corresponde a un incremento del valor a, la intercepción de y en el punto de corte de
la magnitud mínima de la curva de Gutenberg-Richter (GR). Este resultado se apoya en
los recientes análisis de los catálogos de sísmicos naturales además de otros estudios
ARM (ver por ejemplo Bowman and Sammis, 2004; Jiménez et al., 2005).
King y Bowman (2003) propusieron la teoría del rebote elástico (Reid, 1910) y las
interacciones de tensión Coulomb (Bakun et al., 1986; King et al., 1994; Smalley et al.,
1985; Stein, 1999) como la base para el modelo de acumulación de estrés (SAM del
inglés Stress Acumulation Model) En esta versión, ARM surge desde la sismicidad de
fondo cuando toda la región se vuelve suficientemente tensa para el sismo principal
que se produce debido a la carga de tensión de la falla con el tiempo. Las dimensiones
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 17
asociadas están directamente relacionadas con el grado de aumento de la tensión
Coulomb, y observaciones del momento de aceleración liberado en California están
relacionados con la región crítica definida usando la tensión de Coulomb (Bowman and
King, 2001; Mignan et al., 2006a).
Mientras técnicas convencionales de tensión Coulomb directamente calculan
cambios en la tensión, el método de evolución cíclico de tensión de King and Bowman
(2003) modela la evolución del campo de tensión respecto a la tensión de la falla.
Siguiendo a un gran evento, regiones de aumento de sismicidad ocurren cuando el
ámbito de tensión total es elevado (réplicas). También da lugar a regiones de reducida
sismicidad donde el ámbito de tensión ha sido reducido (sombras de estrés), en áreas
de inactividad sísmicamente amplias. Cabe resaltar que si la región que está siendo
investigada es demasiado grande, la liberación del momento de aceleración se
enmascara por una sismicidad de fondo aleatoria no asociada, pero si la región
seleccionada es demasiado pequeña, los eventos que son importantes son excluidos
en la identificación de la aceleración (Bowman et al., 1998).
Bowman et al. (1998) originalmente empleó un algoritmo simple de búsqueda
para definir regiones circulares del ARM antes de un gran terremoto. La tensión
Benioff acumulativa dentro de una serie de regiones circulares se ajusta a la ecuación
de tiempo hasta el fallo de ley de potencia (Bowman et al., 1998; Bufe and Varnes,
1993) y hasta una la línea recta. La relación de los residuos de estos ajustes (c= ley de
potencias residuales/ residuos lineales) es calculado para cada radio, y es llamado
valor c. Cuanto más grande es la curvatura del ASMR, más pequeño es el valor c y la
probabilidad de un evento aumenta. En versiones recientes, el tamaño de la región se
ajusta a un patrón espacial que se aproxima al patrón de cambio de estrés asociado
con mecanismos de falla particulares (King and Bowman, 2003). Los mecanismos
típicos de falla, para la falla de San Jacinto del sur, están centradas en el epicentro del
escenario sísmico. Una serie de estos escenarios de fallas de tamaño variable se traza
para periodos diferentes de tiempo, y el mínimo de la trama resultante es la región con
la mayor aceleración.
El algoritmo regional de optimización de Bowman et al. (1998) fue aplicado a
catálogos instrumentales para el sur de California (Tiampo et al., 2008).Dicha falla
escenario tiene parámetros de origen equivalentes a terremotos de magnitudes 7.5 a
lo largo del sur de la falla de San Andrés. El mejor valor c para este evento, calculado
desde la curva ARM es 0,78, indicando un valor de aproximadamente un 25% de
fiabilidad. Como los valores de c deben ser menores que 0,6 para una predicción fiable
(Mignan et al., 2006a), el evento es improbable que ocurra en un futuro cercano.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 18
Tanto Mignan et al. (2007) como Mignan (2008) propusieron una nueva
aproximación, la teoría sísmica de aceleración precursora no crítica (non-critical PAST).
Mignan et al. (2007) demostró analíticamente que para una región fija en el espacio, el
número de eventos acumulados, λ(t), que comprende la sismicidad de fondo aumenta
como una función de ley de potencias a través del tiempo anterior al sismo principal.
Esta aceleración corresponde con un incremento del valor a sobre unas regiones
determinadas, de acuerdo con observaciones recientes (Bowman and Sammis, 2004;
Mignan and Giovambattista, 2008) y con simulaciones previas (King and Bowman,
2003) mientras los eventos que se producen en las sombras de tensión tienden a
esconder el patrón de aceleración sísmica (por ejemplo, la sismicidad de fondo).
A pesar de que el ARM ha sido observado en varias regiones (Bowman et al., 1998;
Brehm and Braile, 1998; Di Giovambattista and Tyupkin, 2004; Jiang and Wu, 2006,
2010b; Mignan et al., 2006b; Papazachos et al., 2007; Robinson, 2000) y todavía es
activamente estudiado, no se detecta para todos los lugares y eventos. Las razones
para esto siguen siendo esquivas. Una posible explicación radica en el hecho de que si
el modelo propuesto por Bowmn and King (2001) and Mignan et al. (2006a,b) es
correcto, existe un ciclo de activación-inactividad-activación en la sismicidad que está
localizada en el espacio (por ejemplo Di Giovambattista and Tyupkin, 2004; Evison and
Rhoades, 2004; Jaumé and Sykes, 1999). La identificación de estas variaciones espacio-
temporales puede ser difícil. Como se señala en Hardebeck et al. (1998),
aproximadamente el 60% de las réplicas ocurren en regiones donde hay un aumento
de la tensión relacionado con un gran evento, tal que el 40% restante de todos las
réplicas ocurren en áreas designadas como sombras de tensión, o regiones de
inactividad. Estos pueden enmascarar potencialmente el patrón acelerativo de
sismicidad. Además, Ben-Zion and Lyakhovsky (2002) señala que, en simulaciones de
redes de fallas, AMR ocurre solo en aquellos casos donde la sismicidad antes de un
gran evento tiene estadísticas de tamaño de frecuencia amplias.
Como una herramienta de predicción, ARM presenta un desafío significativo
debido a las dificultades asociadas con ajustar los datos acumulados, como
originalmente se señala por Bufe and Varnes (1993). Primero, se presenta una
tendencia de muestra, de modo que distinguir entre señales ARM y no-ARM es difícil y
un falso diagnóstico de ARM puede surgir de la variación normal en los datos
(Greenhough et al., 2009; Hardebeck et al., 2008). Mignan (2008) mostró que el valor
de c llega a ser inestable para niveles de ruido mayores que un 20%, haciendo la
optimización del valor de c menos eficiente. En particular, no se puede identificar el
patrón de inactividad que esta acoplado al AMR. Sin embargo, los intentos para
cuantificar mejor el patrón activación-inactividad- activación y su firma espacial han
mostrado un éxito moderado en años recientes.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 19
Mignan and Giovambattista (2008) demostraron que el algoritmo de longitud-
tiempo-región (RTL del inglés region-time-length), otro algoritmo de predicción para
cuantificar la activación relativa y la inactividad, es sensible a la etapa de inactividad
definida en las simulaciones PAST no-críticas, y que la aceleración precursora sísmica e
inactiva ocurría en la misma espacio-tiempo antes del terremoto de Umbria-Marche
en Italia en 1997. Mignan and Tiampo (2010) demostraron que los índices de patrones
informáticos (PI) también identificaban correctamente las regiones de inactividad
asociadas con señales ARM simuladas. Finalmente, el ARM ha sido aplicado con éxito
en configuraciones vulcano-tectónicas (Chastin and Main, 2003; Kilburn and Voight,
1998).
En segundo lugar, los intentos de ajustar los datos ARM acumulados se han visto
obstaculizados por la no linealidad de dicho ajuste y por la tendencia de la muestra
asociada. La premisa original del análisis de tiempo hasta el fallo fue que el tiempo
hasta el siguiente evento puede ser estimado a través de ajustes de curvas de la ley de
potencias asociada. Sin embargo, esta premisa nunca se ha materializado (Bufe and
Varnes, 1993; Main, 1999a). Incluso si la teoría es correcta, el empinado ajuste de la
curva a medida que se acerca a la ocurrencia de terremotos actual significa que incluso
pequeñas variaciones en los datos dan como resultado grandes errores en el tiempo
de ocurrencia. Además, debido a los periodos de tiempo de predicción inciertos y las
relativamente grandes magnitudes de los eventos empleados por el algoritmo
(~M≥4.5), la predicción no puede ser actualizada tan rápido como las actividades
sísmicas en curso y los cambios de tensión asociados en una región tectónica activa.
Esto da como resultado un número significativo de falsos positivos o predicciones que
no resultan en eventos subsecuentes (Jordan and Jones, 2010; Mignan et al., 2006b).
Finalmente, las predicciones ARM son las más adecuadas para una predicción binaria
sobre este periodo de tiempo incierto, y como resultado nunca ha sido explícitamente
formuladas para probar de nuevo una hipótesis nula aleatoria o agrupada.
Del lado positivo, la aproximación ARM (SAM) tiene el beneficio de proveer no
sólo un aumento de la probabilidad de un evento, sino el mecanismo y la longitud de la
falla, los cuales pueden ser convertidos en magnitudes potenciales. Acoplados con
otras técnicas (Mignan and Giovambattista, 2008; Tiampo et al., 2008) que están mejor
adaptadas a actualizaciones frecuentes para mejores precisiones temporales, el ARM
tiene el potencial de aumentar predicciones a medio plazo con información de
mecanismos y magnitudes.
2.3.2 Terremotos característicos
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 20
A pesar de que la hipótesis de terremotos característico también se encuentra
fuera de los parámetros de estudio de esta revisión, como se ha resaltado antes, su
amplio impacto de propagación en la comunidad de predicción basado en sismicidad y
los modelos de riesgo en curso sobre los últimos 20 años merecen que se incluya aquí.
La duración de los terremotos característicos fue acuñada por Schwartz et al.
(1981) y detallado en Schwartz and Coppersmith (1984), pero el concepto es una
extensión de los primeros trabajos de Reid (1910). Como se ha señalado en la anterior
sección, la teoría de rebote elástico plantea la hipótesis de que un gran terremoto
libera la mayoría de su tensión acumulada en un segmento de una falla dada y que el
siguiente terremoto ocurre después de que la tensión se acumule hasta que es
restaurada a un nivel que da como resultado una ruptura de nuevo. Aquí, el modelo de
terremotos característico supone que las fallas tienden a generar terremotos del
mismo tamaño sobre un rango muy estrecho de magnitudes en las zonas de ruptura o
segmentos que son similares en localización y extensión espacial (Ellsworth and Cole,
1997; Parsons and Geist, 2009; Schwartz and Coppersmith, 1984; Schwartz et al., 1981;
Wesnousky, 1994). La hipótesis conduce a la predicción de eventos específicos con un
tamaño de dimensión de ruptura similar a los terremotos más grandes (magnitudes
entre 6.5 y 9). El modelo es atractivo porque ajusta observaciones históricas y
empíricas en los niveles más básicos, por ejemplo, los grandes terremotos tienden a
ocurrir donde han ocurrido en el pasado (Allen, 1968; Davison and Scholz, 1985;
Frankel et al., 2002; Kafka, 2002; Petersen et al., 2007). De nuevo, esto método
particular difiere de los principales métodos discutidos en otra parte en este artículo
en el que no se utilizan catálogos sísmicos recientes, incluyendo los eventos de tamaño
pequeño-mediano, para cuantificar peligros de sismicidad a medio plazo. En vez de
eso, se basa en eventos históricos de magnitudes entre 5 a 6 y superiores, y el evento
más grande desde los estudios paleosísmicos (Wesnousky, 1994). Los estudios
paleosísmicos (Anderson et al., 1989; Arrowsmith et al., 1997; Biasi and Weldon, 2006;
Biasi et al., 2002; Grant and Shearer, 2004; Grant and Sieh, 1994; Lienkaemper, 2001;
Lienkaemper and Prescott, 1989; Matsu'ura and Kase, 2010; Pantosti et al., 2008;
Rockwell et al., 2003; Sieh, 1984; Sieh et al., 1989;Weldon et al., 2004, entre otros)
proporcionan información detallada del desplazamiento, área de ruptura e intervalos
de recurrencia para la inclusión en el modelo de terremotos característico (Parsons
and Geist, 2009; Schwartz and Coppersmith, 1984; Wallace, 1970; Wesnousky, 1994).
En el modelo de terremotos característico los periodos de retorno, o intervalos de
recurrencia, de los más grandes, relativamente poco frecuentes, eventos están
asociados con el mayor peligro sísmico significativo para una falla dada, los terremotos
obedecen la relación de magnitud-frecuencia GR (Frohlich and Davis, 1993; Gulia and
Wiemer, 2010; Gutenberg and Richter, 1944;Pacheco et al., 1992; Parsons and Geist,
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 21
2009; Schorlemmer et al., 2004a, 2005, entre otros), la tasa de terremotos
característicos podría ser mayor que lo esperado desde la ley de escala GR (Parsons
and Geist, 2009; Schwartz and Coppersmith, 1984;Wesnousky, 1994).
Existen muchos estudios recientes y aplicaciones de la teoría de terremotos
característicos para la valoración de peligro sísmico (Cao et al., 2003, 2005; Chang and
Smith, 2002; Frankel et al., 2002; Parsons, 2004; Petersen et al., 2008; Romeo, 2005;
Stirling et al., 1996, 2002b) Los dos ejemplos más notables son el experimento
predictivo de Parkfield y la incorporación del modelo de terremotos característico en
las estimaciones de peligro del Grupo de Trabajo de Probabilidad de Terremotos en
California (WGCEP del inglés working group on California Earthquake Probabilities), la
cual incorpora terremotos característicos en la construcción de modelos de peligro
sísmico para california (WGCEP, 1988, 1990, 1995, 2002, 2003, 2008).
Los terremotos en el segmento de Parkfield de la falla de San Andrés en California
fueron designados como característicos a mediados de los años 80, basados en la
evidencia para la periodicidad en 1.881, 1.901, 1.922, 1.934 y 1.966 de un evento de
aproximadamente la misma magnitud y localización (Bakun and Lindh, 1985; Bakun
and McEvilly, 1984; Bakun et al., 2005).. Como resultado, el Consejo Nacional de
Evaluación y Predicción de Terremotos (NEPEC del inglés national earthquake
predicition evaluation council) emitieron una predicción de un terremoto de magnitud
aproximada a 6 que tenía un 95% de probabilidades de ocurrir entre 1985 y 1993 cerca
de Parkfield, California (Shearer, 1985). El terremoto predicho no ocurrió hasta
septiembre de 2004, más de 10 años después del fin del intervalo de pronóstico. A
pesar de una exhaustiva revisión de las predicciones originales y de los estudios
asociados, modificaciones e implicaciones pueden ser encontrados en Jackson and
Kagan (2006), el terremoto claramente no cumplió la suposición del comportamiento
cuasi-periódico implícito en la predicción original.
El modelo de terremotos característico tiene un impacto significativo y
permanente en la valoración y cuantificación del peligro sísmico en muchas regiones.
Sin embargo, mientras la evidencia persiste de que los terremotos ocurren de una
manera cuasi-periódica por al menos un cierto periodo durante la vida de una falla, la
naturaleza, persistencia y variación en ese comportamiento es complejo espacial y
temporalmente (por ejemplo, Biasi and Weldon, 2006; Cao et al., 2003, 2005; Chang
and Smith, 2002; Faenza et al., 2003; Frankel et al., 2002; Ishibe and Shimazaki, 2009;
Lienkaemper, 2001; Pailoplee et al., 2009; Parsons, 2004; Parsons and Geist, 2009;
Peruzza et al., 2010; Petersen et al., 2008; Romeo, 2005; Stirling et al., 1996, 2002b;
Vázquez-Prada et al., 2003). En particular, dadas las relativamente cortas duraciones
de catálogos instrumentales e históricos, y las incertidumbres asociadas con citas
paleosismicas, la cuantificación de la dimensión de ruptura, segmentación de falla y
magnitud no solo es difícil, sino que también tiene efectos importantes en las
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 22
estimaciones de peligro resultantes (Biasi and Weldon, 2006; Jackson and Kagan, 2006;
Page and Carlson, 2006; Parsons and Geist, 2009; Romeo, 2005; Savage, 1991, 1992;
Stein and Newman, 2004; Stein et al., 2005; Stirling and Wesnousky, 1997). Quizás lo
más importante, para los periodos de recurrencia para eventos característicos es que
son relativamente largos y la predicción resultante generalmente representa una
pequeña fracción del ciclo sísmico, una predicción formulada desde un periodo de
retorno característico no puede incorporar la naturaleza dinámica de la sismicidad. La
actividad sísmica permanente, las interacciones asociadas y los cambios de tensión en
una región tectónica activa no pueden ser incorporados en una predicción basada en
un modelo de terremoto característico porque su naturaleza no permite la
incorporación de cambios espaciales y temporales en la actividad (Jordan and Jones,
2010).
El terremoto característico y el modelo de grieta sísmica relacionado continúan
siendo estudiados y aplicados de varias formas (por ejemplo Biasi and Weldon, 2006;
Faenza, et al., 2003; Fedotov, 1968; Hurukawa and Maung, 2011; Ishibe and Shimazaki,
2009; Kelleher, 1972; Kelleher et al., 1973; Lienkaemper, 2001; McCann et al., 1979;
Nishenko, 1989; Nishenko and McCann, 1981; Pailoplee et al., 2009; Peruzza et al.,
2010; Sykes, 1971; Sykes and Nishenko, 1984; Thatcher, 1989; Vázquez-Prada et al.,
2003).. Es posible incluir terremotos cualitativamente característicos en un modelo de
predicción probabilístico, como se demuestra por su inclusión en dos de los modelos
de predicción para Italia presentados para testing en la página de prueba del CSEP
(CSEP, www.cseptesting.org). El modelo de transferencia de tensión a medio plazo
(LTST del inglés long-term stress transfer) (Falcone et al., 2010) y el modelo fuente
sismogénico en capas en Italia central (LASSCI del inglés layered seismogenic source
model in central Italy) (Pace et al., 2010) incluyen componentes de terremotos
característicos significativos en sus formulaciones. Sin embargo, sus aplicaciones a
predicciones a medio plazo presentan varios problemas prácticos y teóricos.
Los estudios más recientes sobre la hipótesis de terremotos característicos
(Jackson and Kagan, 2006; Rong et al., 2003; Stein and Newman, 2004; Stein et al.,
2005) sugieren que la evidencia apoyada anteriormente es el resultado de la limitada
longitud del catálogo de terremotos instrumental relacionado con los intervalos de
recurrencia, errores en el tamaño o la frecuencia de grandes eventos en los registros
paleosismicos, y la variabilidad en la elección de la extensión espacial y el
deslizamiento asociado a la región de grieta sísmica (Jackson and Kagan,2006; Stein
and Newman, 2004; Stein et al., 2005; Thatcher, 1989) Para esta discusión está claro
que, cualquiera que sea los resultados y la aplicación futura de la teoría de terremotos
característico, no es un buen ajuste a la categoría de técnicas de predicción basadas en
sismicidad discutidos en otras partes de este trabajo. Primeramente, los grandes
eventos en amplias áreas espaciales son usados para predecir eventos similares sobre
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 23
largos periodos de tiempo, en lugar de analizar un número significativo de eventos
para predecir la probabilidad de grandes eventos en lugares específicos, bien
definidos. En segundo lugar, la inherente naturaleza a largo plazo del incremento o
decremento de riesgo asociado con estas regiones es extremadamente difícil de
cuantificar de una manera que sea a la vez verificable y evaluable. Por ejemplo, a pesar
de que Hurukawa and Maung (2011) esbozo dos grietas sísmicas en Myanmar, no
pueden definir el intervalo recurrente para esos eventos o un periodo de tiempo de
aumento de riego, lo cual es probable en un orden de 50 a 100 años.
Finalmente los efectos de muestra pueden sesgar estadísticas de magnitud y
frecuencia en gran medida hacia una distribución característica (Naylor et al., 2009). El
pequeño número de grandes eventos disponibles incluso sobre un periodo de tiempo
de 30 a 50 años en cualquiera de los catálogos regionales o mundiales hace que las
pruebas estadísticas sean extremadamente difíciles y sugiere que pasarán muchos
años más antes de que la utilidad de esta técnica particular pueda ser adecuadamente
evaluada o implementada en un esquema de predicción operacional (Jackson and
Kagan, 2006; Schorlemmer and Gerstenberger, 2007; Vere-Jones, 1995, 2006; Zechar
et al., 2010)
2.3.3 Variaciones en el valor b
Variaciones en el valor b, o pendiente de la relación de distribución de magnitud y
frecuencia GR para terremotos, han sido estudiadas intensamente a lo largo de los
últimos 20 años (Cao et al., 1996; Frohlich and Davis, 1993; Gerstenberger et al., 2001;
Gutenberg and Richter, 1944; Imoto, 1991; Imoto et al., 1990; Ogata and Katsura,
1993; Schorlemmer et al., 2004a; Wiemer and Benoit, 1996; Wiemer and
Schorlemmer, 2007; Wiemer andWyss, 1997, 2002;Wiemer et al., 1998;Wyss
andWiemer, 2000 entre otros)
Para una revisión más completa de los recientes investigaciones en la variaciones
del valor b, ver Wiemer andWyss (2002). En general, este trabajo demuestra que el
valor b es altamente heterogéneo en el espacio y en el tiempo y en una amplia
variedad de escalas (Schorlemmer etal., 2004a; Wiemer and Schorlemmer, 2007;
Wiemer and Wyss, 2002). Estas variaciones tienen importantes implicaciones para
peligros sísmicos porque las valoraciones de peligro sísmico probabilístico regional
(PSHA del inglés probabilistic seismic hazard assessment) son realizadas comúnmente
usando la distribución de frecuencia-magnitud de GR, particularmente en áreas de
sismicidad dispersa (Field, 2007;Wiemer and Schorlemmer, 2007;Wiemer et al., 2009).
Sin embargo, el principal objetivo de este estudio será las implicaciones de cambios en
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 24
el valor b, que están asociados potencialmente con futuros grandes eventos, y la
investigación asociada en la predicción del valor b.
Algunos trabajos recientes basados en valores b regionales han dado como
resultado dos importantes conclusiones. La primera, que el valor de b varía con el
mecanismo de falla. El valor b para eventos de empuje es más pequeño (~ 0,7)
mientras que la de los eventos de desgarre es intermedia (~ 0,9) y es mayor para
eventos normales (~ 1.1). Esta relación es inversamente proporcional a la tensión
media en cada régimen (Schorlemmer et al., 2005; Gulia and Wiemer, 2010)confirmó
este resultado para la sismicidad regional en Italia. En segundo lugar, investigaciones
relacionadas sugieren que los parches bloqueados en fallas, o asperezas, se
caracterizan por valores de b bajos, mientras que las fallas de arrastre tienen mayores
valores de b (Schorlemmer et al., 2004b; Wiemer and Wyss, 1994, 1997, 2002). En su
conjunto, esto sugiere que el cambio en el valor b puede ser usado como un sensor de
tensión, localizando áreas de acumulación de tensión grande o baja, particularmente
hacia el fin del ciclo sísmico, y cuantificable en un modelo de predicción de terremotos
regional (Gulia and Wiemer, 2010;Latchman et al., 2008; Schorlemmer et al.,
2005).Esta hipótesis es apoyada por los resultados en laboratorio para emisiones
acústicas. Estas mostraron que el valor de b es sensible tanto a la heterogeneidad de la
tensión (Scholz, 1968) como a la del material (Mogi, 1967) en primera instancia, y a la
intensidad de la tensión normalizada por la resistencia a la fractura en segunda
instancia (Sammonds et al., 1992). La intensidad de la tensión es proporcional a la
tensión efectiva (Sammonds et al., 1992) y la raíz cuadrada de la longitud de formar un
núcleo (nucleating) de la fractura, de tal manera que los materiales heterogéneos
tienden a estar juntos, confirmando la relación entre tensión, heterogeneidad y el
valor b.
Muchas de las referencias anteriores debaten incrementos en el riesgo sísmico
asociado con valores de b bajos (por ejemplo Westerhaus et al., 2002) y formulan
mapas de variaciones del valor b para grandes eventos. Sin embargo, algunos trabajos
recientes se han centrado en formular predicciones probabilísticas predictivas usando
variaciones del valor b. Schorlemmer et al. (2005) estudió las variaciones del valor b a
lo largo del segmento de Parkfield de San Andrés, y produjo retrospectiva de periodos
de 5 años por la extrapolación de la distribución GR con valores de b variantes
espacialmente sobre pequeños volúmenes. Wiemer and Schorlemmer (2007)
desarrolló el modelo de probabilidad basado en aspereza (ALM del inglés asperity-
based likelihood model) para California y se lo pasó a la web de pruebas de
predicciones RELM. En esta versión, analizaban los catálogos sísmicos para California
para la magnitud mínima de integridad y una profundidad de 30 km. Debido a que los
cálculos del valor b deben alcanzar de 5 a 20 km, dependiendo de la velocidad de
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 25
actividad, se calculan dos modelos. El primero es un modelo local, y el segundo es un
modelo regional. El ajuste del valor b es calculado desde una puntuación probable (Aki,
1965) y entonces los dos modelos son comparados con el Criterio de información
Akaike corregido, AIC (Akaike, 1974; Burnham and Anderson, 2002; Kenneth et al.,
2002). La puntuación más baja de AIC es el mejor modelo. Se realiza una búsqueda
variando el tamaño de regiones locales y comparándolas con el valor AIC regional. La
localización con los radios más pequeños donde el modelo del valor b local puntúa un
AIC más bajo es usado para computar la distribución para la sismicidad en la región.
Una vez que una distribución de magnitud-frecuencia es determinada para cada
localización, la tasa anual de eventos en cada magnitud encontrada de 5.0≤M≤9.0
puede ser calculada para la predicción (Wiemer and Schorlemmer, 2007).
Gulia et al., 2010 proporcionó una predicción ALM para Italia en CSEP
(CSEP,www.cseptesting.org). La metodología fue similar a aquella de Wiemer and
Schorlemmer (2007), más arriba, excepto que la magnitud de valores de integridad
fueron arreglados usando un núcleo Gaussiano. Además, dos predicciones modificadas
fueron creados desde ALM: en el modelo ALM.IT, el catálogo de entrada es
desagrupado para M≥2 y un filtro Gaussiano es aplicado en una base de nodo antes del
cálculo del valor de a en la distribución magnitud-frecuencia.
En la versión HALM, el modelo fue modificado de modo que la región fue
fraccionada en ocho subregiones sobre provincias tectónicas, y esto fue usado para el
modelo global, dependiendo de la localización de cada nodo. Las investigaciones a
largo plazo en las estadísticas del valor b proporcionan fuertes evidencias de que
ocurren variaciones persistentes que están correlacionadas con el campo de tensión
heterogéneo en zonas de fallas principales. Los continuos esfuerzos han dado como
resultado predicciones testeables para ocurrencias sísmicas y proporcionan evidencia
tranquilizadora de que los precursores de sismicidad pueden ser traducidos a mapas
de peligro dependientes del tiempo.
2.3.4 La familia de algoritmos M8
El algoritmo M8 (Keilis-Borok and Kossobokov, 1990; Keilis-Borok et al., 1990;
Kossobokov, 2006a,b; Kossobokov et al., 1999, 2000, 2002; Latoussakis and
Kossobokov, 1990; Peresan et al., 2005 fue desarrollado aproximadamente hace 30
años con el fin de localizar regiones de mayor probabilidad de ocurrencia de terremoto
en el espacio y el tiempo. Modificado en los años siguientes, el algoritmo actual calcula
siete series de tiempo, desde pequeños terremotos, ~ M4, para una región especifica
de investigación que es una función del tamaño del terremoto que va a ser
pronosticado. Los valores de estas series de tiempo son usados para tomar una
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 26
decisión de si invocar un "tiempo de probabilidad aumentada" o TIP (del inglés time of
increased probability), para un gran evento de aproximadamente M6,5-8 (Kossobokov
et al., 1999).
El algoritmo M8 generalmente implica la predicción de áreas relativamente
grandes de aproximadamente 5 veces la dimensión de ruptura, o desde centenares
hasta más de mil km, y desde 6 meses a 5 años en el futuro (Kossobokov, 2006a). Las
predicciones son calculadas para terremotos de magnitudes M0 y superiores en
intervalos de 0,5. La región es escaneada usando círculos superpuestos con un
diámetro directamente relacionado con M0, o 384 km, 560 km, 854 km y 1333 km para
M6.5, M7.0, M7.5 y M8 respectivamente. Las series de tiempo para secuencias de
terremotos dentro de cada círculo son calculadas y entonces normalizadas con el corte
de magnitud más bajo. Son calculadas varias medias móviles para la secuencia en
espacios de tiempo deslizantes, típicamente 6 meses, lo cual caracteriza la intensidad
del terremoto y su desviación de la media, y el agrupamiento de sismicidad.
Específicamente, M8 calcula N(t), el número de sismos principales; L(t) la desviación
del N(t) de la tendencia a largo plazo; Z(t) la concentración lineal de sismos principales
calculados como la proporción de l, el diámetro medio del origen, hasta la distancia
media entre ellos, r; y B(t) el número máximo de réplicas, un proxy para la agrupación
de terremotos. N(t), L(t), y Z(t) son calculados dos veces cada uno, por dos valores
diferentes de Ñ, que es el valor estándar del número medio anual de terremotos en la
secuencia, típicamente 10 y 20. Los valores grandes son identificados cuando exceden
el percentil Q como un porcentaje dado de los valores encontrados, típicamente 75%
para B y 90% para las otras funciones. Una alarma o una TIP de 5 años ocurren cuando
al menos 6 de las 7 funciones, incluyendo B, se hacen grandes dentro de dos
secuencias de tiempo consecutivas (Kossobokov et al., 1999).
Desde su inicio, el algoritmo M8 ha sido controvertido y polémico. Su efectividad
es todavía discutida, en parte, porque de hecho es una aproximación de
reconocimiento de patrones a la cual ningún mecanismo físico causal se le ha atribuido
(CEPEC Report, 2004a,b; Eneva andBen-Zion, 1997; Harte et al., 2003; Harte et al.,
2007; Kossobokov et al., 2000). Ha habido muchos éxitos predictivos (CEPEC Report,
2004a,b; Kossobokov et al., 1999) , pero estos ocurren en espacios temporales y
espaciales de alarmas que son bastante grandes (Kagan, 1997; Kossobokovet al., 1999;
Marzocchi et al., 2003, entre otros). Como resultado las dificultades para entender y
probar el método son numerosas. Predice grandes e infrecuentes eventos cuyas
estadísticas son, como se señala en otro lugar de este trabajo, difícil de evaluar sin un
tamaño de muestra suficiente (Jackson and Kagan, 2006; Schorlemmer and
Gerstenberger, 2007; Vere-Jones, 1995, 2006; Zechar et al., 2010). Finalmente, su
rígida especificación de regiones, magnitudes y tiempos exige un criterio de predicción
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 27
binario (por ejemplo, éxito o fallo) para su evaluación, lo que lo hace difícil de evaluar y
significa que es altamente sensible a falsos positivos (Harte et al., 2003, 2007; Jackson
and Kagan, 2006; Marzocchi et al., 2003).
Hace aproximadamente 10 años, un algoritmo de seguimiento fue añadido a la
familia de M8 llamada el escenario Mendocino, o MSc (del inglés Mendocino Scenario)
(Kossobokov,2006a; Kossobokov et al., 1999). En este paso, las predicciones son
hechas usando M8. Subsecuentemente las áreas de alarma (TIP) son reducidas por
MSc. Dado un TIP diagnosticado para un cierto territorio U, el algoritmos es diseñado
para encontrar dentro de U un área más pequeña, V, donde los terremotos predichos
pueden ser esperados. Destacar que este algoritmo particular requiere un catálogo
completo razonable de terremotos con magnitudes superiores a M 4.
Dentro de cada cuadrado el número de terremotos, incluyendo réplicas, es
calculado para espacios consecutivos de tiempos cortos. Los cuadros de inactividad
espacio-temporales son identificados en base a la condición de que el número de
eventos este de nuevo por debajo del percentil Q. Las agrupaciones de cuadros
inactivos se identifican que están conectados en tiempo o en espacio, y estos son
identificados como cadenas. La subárea, V, está basada en estas agrupaciones. Por lo
tanto, el algoritmo MSc esboza un área del TIP donde la actividad es generalmente alta
pero ha sido interrumpida por un corto periodo de tiempo. Entre 1992 y 1997, 5
terremotos de magnitud superior e igual a 8 ocurrieron en el área de prueba: todos
ellos fueron predichos por M8 y el MSc identificó correctamente la localización de 4 de
ellos (Kossobokov et al., 1999). Kossobokov (2006a,b) aplicó M8 y MSc a la predicción
retrospectiva y sugirió que la metodología podía ser re-escalada para predicciones de
terremotos de pequeña y gran magnitud desde pruebas retrospectivas en eventos
M5.5 en Italia y en el terremoto M9.0 en Sumatra.
En Keilis-Borok et al. (2002) se presentó un método para predicciones de
terremotos a corto plazo. Esbozaron dos patrones de sismicidad además del empleado
en el algoritmo MSc, ROC y Accord. El patrón ROC registra las casi simultáneas
ocurrencias de sismos principales de magnitud media en largas distancias, mientras
que el patrón Accord refleja un casi simultáneo aumento de la actividad sísmica en
diferentes localizaciones en una región. Ambos patrones fueron mostrados para
predecir 5 grandes terremotos en cuestión de meses en California entre 1968 y 1999,
así como para periodos de tiempo más largos. Una alarma a corto plazo de 6 a 9 meses
se emite basada en cadenas de estas señales que se extienden a largos intervalos.
A mediados de 2003, el grupo Keilis-Borok emitió dos predicciones de terremotos
a corto plazo, uno para un terremoto M≥7.0 en una región de 250.000 millas
cuadradas en la parte norte de las islas japonesas y uno para un terremoto de M≥6.4
en un área de 40.000 millas cuadradas de California central. Las predicciones fueron
satisfactorias para las terremotos de 2003 en Hokkaido y diciembre de 2003 en San
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 28
Simeón (CEPEC Report, 2004a,b). Esto fue seguido por una predicción de terremoto de
magnitud 6,4 o superior antes del 5 de septiembre de 2004 en una región de 12.440
millas cuadradas del Sur de California, y una predicción subsecuente de un terremoto
de magnitud 6,4 o superior a ocurrir antes del 14 de agosto de 2005, dentro de un área
de 12.660 millas cuadradas.
No se cumplió ninguna predicción, tampoco fue una predicción para un gran
evento en Japón o para un terremoto moderado en el área de Eslovenia (CEPEC
Report, 2004a,b).
El estado actual de la predicción M8 puede ser encontrado en
http://www.phys.ualberta.ca/mirrors/mitp/predictions.html. La emisión de continuos
TIPs, con una tasa de éxito suficientemente grande fue implementado por Harte et
al.(2003)para el algoritmo en el SSLib (del inglés statistical seismology software library)
para tanto su uso como para su prueba (R Development Core Team, 2006). Esto fue
seguido por una modificación en el método para producir un modelo probabilístico
continuo para el M8 para Nueva Zelanda, en vez de una predicción de alarma binaria
(Harte et al., 2007). Los resultados fueron favorables cuando se probaron contra una
hipótesis nula aleatoria, aunque la motivación física para una predicción exitosa no
queda clara. Un inconveniente de M8 es que es una predicción binaria, por eso su
comportamiento es evaluado solo por la proporción de éxitos, fallos y falsas alarmas.
Además, debido a que una TIP es esbozada para regiones geográficas largas y para
largas duraciones, la ganancia de probabilidad de una predicción que es espacialmente
exacta pero temporalmente aleatoria, es generalmente pequeña aunque pudiera
haber muy pocos fallos (Romachkova et al. (1998). La cuestión sigue siendo si esta alta
fiabilidad puede ser traducida en una ganancia de probabilidad significativa que se
probará como útil para la comunidad de riesgos.
2.3.5 RTL
El RTL es un método estadístico en el cual tres parámetros relacionados con
terremotos (tiempo, lugar y magnitud) son incluidos en un coeficiente ponderado
(Sobolev and Tyupkin, 1997, 1999). El algoritmo combina la distancia, tiempo y
longitud de ruptura de sismicidad agrupada en una medida combinada. La designación
de Region-Time-Lenght (RTL) surge por la región (en inglés Region) (distancia al
epicentro), el intervalo de tiempo (en inglés Time) y la longitud (en inglés Length)
(tamaño de ruptura, por ejemplo la magnitud). El algoritmo RTL es un método
estadístico para investigar cambios de sismicidad previos a grandes eventos. Estos
cambios ocurren sobre regiones del orden de 100 km, y unos pocos años antes de
grandes eventos (Mignan and Di Giovambattista, 2008).
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 29
Recientemente ha sido usado para aislar inactividad anómala y sismicidad previas
a grandes eventos en Japón, Rusia, Turquía e Italia (Di Giovambattista and Tyupkin;,
2000; Gentili, 2010; Huang, 2006; Huang and Nagao, 2002; Huang and Sobolev, 2001;
Huang et al., 2001, 2002; Sobolev, 2001; Sobolev et al., 2002; Wyss et al., 2004).
El parámetro RTL, Q, es definido como el producto de 3 funciones: ���, �� = �∑ exp�−��/� �!��� " − �#$��, �� (2.3.2) %��, �� = �∑ exp�−�� − ���/� �!��� " − %#$��, �� (2.3.3)
&��, �� = '∑ ()�*+, −!��� &#$��, ��- (2.3.4)
donde r0 y t0 son tiempo y distancia características, ri es la distancia desde x, ti el
tiempo de ocurrencia y li es la dimensión de ruptura, la cual es una función de
magnitud Mi del i-ésimo evento.
El valor de lise calcula usando la relación empírica entre el tamaño de la fuente y la
magnitud del terremoto, Mi: log�1�� = 0.445 − 1.289 (2.3.5)
Aquí n es el número de eventos, ri cae en un círculo de radio 2r0, (t−ti)≤2 t0 y
Mmin≤Mi≤Mmax, r0 y t0 son distancias características e intervalos de tiempo.
Típicamente, r0=50 km, t0=1 año, y Mmax~3.8. Rbk(x,t), Tbk(x,t) y Lbk(x,t) son las
tendencias de fondo de R(x,t), T(x,t) y L(x,t), respectivamente. R(x,t), T(x,t) y L(x,t) son
funciones adimensionales normalizadas por su desviación estándar σR, σT y σL,
respectivamente. El parámetro RTL (en unidades del producto de la desviación
estándar σ=σRσTσL) describe la desviación del nivel de fondo de la sismicidad. Un RTL
negativo es interpretado como inactividad y un RTL positivo como una activación (Di
Giovambattista and Tyupkin, 2000; Huang, 2004; Mignan and Di Giovambattista,
2008).
El análisis se lleva a cabo en un catálogo desagrupado. Los eventos más pequeños,
basados en la magnitud mínima de terminación, son incluidas en el análisis (Mignan
and Di Giovambattista, 2008). Nótese de las ecuaciones anteriores que el coeficiente
de R y T se incrementa exponencialmente cuando un terremoto es localizado cerca del
lugar de prueba en cualquier tiempo o distancia. Inversamente, una distancia mayor
proporciona un decrecimiento exponencial. L crece si el terremoto previo tiene una
magnitud mayor, o decrece cuando la magnitud es más pequeña. El parámetro RTL es
designado de tal forma que la inactividad sísmica resulta en una anomalía negativa en
comparación con los antecedentes promedios y la activación sísmica resulta en un
incremento del parámetro RTL (Di Giovambattista and Tyupkin, 2000; Huang, 2004).
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 30
Huang et al., 2002 presentó el parámetro Q, una media de los valores RTL sobre
algún espacio de tiempo [t1, t2], para cuantificar la inactividad sísmica en cualquier
posición (x, y, z).
:��, ;, ��, �<� = �∑ �%&��, ;, =, ����� � (2.3.6)
donde ti es el tiempo en el espacio [t1, t2], RTL(x,y,z,ti) es el parámetro RTL
calculado como el producto de 3 funciones y m es el número de puntos de datos
disponible en [t1, t2]. Usando esta técnica, fue detectada inactividad significativa
sísmica precursora en el epicentro del Mw=7,4, el 17 de agosto de 1999 en Izmit
(Turquía) y fue seguido por una fase de activación de aproximadamente dos años
antes del sismo principal.
En una revisión de estudios de los terremotos M≥7 en Kamchatka (Rusia), Tottori
y Kobe (Japón) Huang (2004) se mostró que la inactividad sísmica generalmente
empieza unos años antes de la ocurrencia del mayor terremoto y dura de 1 a 2,5 años.
Esto es seguido de un periodo de activación sísmica que generalmente dura varios
meses. La dimensión lineal de la zona de inactividad es alcanzada a unos pocos cientos
de kilómetros, lo cual es aproximadamente 10 veces más grande que la zona de
activación. El sismo principal es más probable de ocurrir una vez la región fuente
relevante ha pasado a través de las etapas de inactividad y activación.
El análisis RTL también ha sido aplicado retrospectivamente a Grecia (Huang et al.,
2001; Sobolev, 2007; Sobolev and Tyupkin, 1997), Japón (Huang, 2004, 2006), Turquía
(Huang et al., 2002), Tailandia (Chen andWu, 2006), China (Jiang et al., 2004; Rong and
Li, 2007) e Italia (Di Giovambattista and Tyupkin, 2000, 2004). Chen and Wu (2006) and
Gentili (2010) aplicaron una mejora al algoritmo en el cual optimizaban el algoritmo
RTL, primeramente calculando muchos conjuntos de valores RTL para una variedad de
r0 y t0 y computaron el coeficiente de correlación sobre pares de funciones RTL. La alta
correlación entre dos funciones RTL ocurre cuando los valores de r0 y t0 se aproximan
al valor óptimo (Chen and Wu, 2006). Gentili (2010) plantea la hipótesis de que la
inactividad es un precursor mejor que la activación, y propuso un algoritmo, RTLsurv,
basado en el método de Chen and Wu (2006) que considera todos los periodos
potenciales de inactividad y deja de lado los periodos de activación.
En casi todos los casos enumerados anteriormente, fue encontrado que la
inactividad sísmica tiene lugar aproximadamente de uno a dos años antes del evento y
es seguido de periodos de activación que duran desde 6 meses a un año. Como tal, las
regiones espaciales y temporales sobre cuales podría probarse como óptima para
predicciones a medio plazo. Sin embargo, a pesar de lo consistente que puede parecer
este método, no ha sido adaptado para una técnica de predicción operacional para
pronósticos a medio plazo. Pruebas limitadas contra una hipótesis nula aleatoria han
sido llevadas a cabo. Mientras Huang (2006) encontró que el algoritmo RTL actuaba
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 31
significativamente mejor para el terremoto de Tottori en Japón en el año 2.000, Zechar
and Zhuang (2010) encontraron que una evaluación más extensa de múltiples
predicciones mostraron mínima ganancia de probabilidad sobre predicciones
aleatorias. Evaluaciones más extensas requerirían pruebas aún más extensas del
patrón con el objetivo de determinar el orden de su ocurrencia, para construir
modelos de error, y para investigar la tasa de falsos positivos y fallos para predecir.
2.3.6 LURR
La tasa de respuesta de carga y descarga (LURR del inglés Load-Unload Response
Ration) originalmente fue propuesta para medir el cambio energético sísmico en los
meses y años anteriores a un gran evento de modo que podría ser usado como un
vaticinador de terremotos (Yin et al., 1995).
La idea física es que, cuando la corteza está cercana a la inestabilidad, más energía
es liberada en el periodo de carga que en el periodo de descarga. Si uno puede medir
la tasa entre periodos conocidos de carga y descarga, entonces puede ser derivada una
medida que determine con precisión tiempos y lugares de alta liberación de energía
como un precursor potencial. Aunque la fuerza de marea de capacidad de
desencadenante de terremoto sigue siendo controvertido, estudios en años recientes
han sugerido que es un efecto medible, al menos en ciertas regiones. Ciertamente, se
espera que tensiones de marea afecten a grandes cortezas terrestre (Cochran et al.,
2004; Lockner and Beeler, 1999; Rydelek et al., 1992; Smith and Sammis, 2004; Tanaka,
2010; Tanaka et al., 2002; Vidale et al., 1998, y otros). En el caso de LURR, la naturaleza
cíclica de las tensiones de marea se plantea como hipótesis para imponer carga y
descarga en la corteza que corresponde con valores positivos o negativos de la tensión
de fallo Coulomb de marea (CFS del inglés Coulomb Faiulure Stresses). En LURR
periodos de carga y descarga son identificados basados en la marea terrestre
induciendo perturbaciones en el CFS de manera óptima en fallas orientadas. (Feng et
al., 2008; Mora et al., 2002; Peng et al., 2006; Wang et al., 2004a,b; Yin and Mora,
2006; Yin et al., 1995, 2000, 2006, 2008a,b, 2010; Yu and Zhu, 2010; Yu et al., 2006;
Zhang et al., 2004, 2006, 2010).
LURR ha sido empleado principalmente en la predicción de terremotos medios. La
tasa LURR es calculada desde
> = (∑ ?+@AB+CD ,B�∑ ?+@AE+CD �E (2.3.7)
donde E denota energía sísmica (Kanamori and Anderson, 1975), "+" es para
eventos de carga y "-" para eventos de descarga y m=1/2 de forma que Em denota la
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 32
tensión de Benioff. En teoría, m podría ser establecida para calcular otras medidas
sísmicas (Yin et al., 2008a).
Para un catálogo dado, el incremento de tensión CFS causado por la carga de
marea es calculado para cada terremoto. La variación de energía asociada es asignada
por el signo positivo o negativo para carga o descarga, respectivamente. Las regiones y
periodos de tiempo son entonces escaneados y la tasa LURR Y, es calculada y
comparada con grandes eventos. La tasa LURR generalmente fluctúa sobre un valor de
uno, pero son observados mayores valores LURR normalmente algunos años o meses
antes de un fuerte terremoto (Yin et al., 2008b). Típicamente estos valores se
incrementan a un pico, y después caen de nuevo tímidamente antes de un evento. El
tiempo y tamaño de las regiones de alerta se escala con el tamaño de los eventos
próximos. Los picos del LURR ocurren en algún lugar entre los 6 meses antes de un
terremoto de magnitud aproximada a 5, y hasta dos años antes de un evento de
magnitud aproximada a 8. El tamaño del diámetro de la región oscila entre 100 km
para un evento de magnitud aproximada a 5 hasta 1000 km para un terremoto de
magnitud aproximada de 8 (Peng et al., 2006; Yin et al., 2010).
La técnica LURR ha sido aplicada principalmente en China, California y Sumatra y
mostró tener capacidades predictivas retrospectivas (Yin et al., 2008a,b, 2010; Zhang
et al., 2006, y otros).
Sin embargo, no tiene éxito en retrospectiva prediciendo la secuencia de Lander
de 1.992. Recientes mejoras en la metodología incluyen búsqueda para la orientación
de tensión óptima en la suposición de que, estadísticamente, las fracturas están
orientadas en la dirección de tensión regional. Esta orientación es llamada orientación
de falla máxima (MFO del inglés Maximum Faulting Orientation) y, después de la
optimización para esta dirección de falla, el terremoto de Landers muestra un pico
LURR como lo hace el terremoto de Sumatra de 2004 (Yin and Mora, 2006; Yin et al.,
2008a).
La técnica LURR sigue siendo controvertida. Smith and Sammis (2004) and Trotta
and Tullis (2006) aplicaron el método LURR para el mismo conjunto de datos de
California como Yin et al. (1995). La función LURR es muy variable y dependiente de los
parámetros de entrada, incluyendo la elección del radio de la región analizada, el
espacio de tiempo sobre los que los resultados son promediados, y la magnitud de
corte superior.
Además, mientras que Peng et al. (2006) determinó que LURR actuaba
significativamente mejor que una hipótesis nula aleatoria, Trotta and Tullis (2006)
encontraron que los valores de carga y descarga asignados aleatoriamente causan una
cantidad igual de variación en valores LURR como valores de onda actual. La elección
de la función de actividad sísmica también influyó en los resultados. Tanto la tensión
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 33
de Benioff como la magnitud de corte superior afectan al rol del terremoto mayor en
el análisis así como la falta de integridad (Smith and Sammis, 2004).
También señalaron que, en los 20 años anteriores al terremoto de Northridge de
1.994, hubo muchos picos de LURR de la misma amplitud o más grandes que el usado
para predecir ese evento (Trotta and Tullis, 2006). Fluctuaciones aleatorias tales como
esta producen falsos positivos que reducen en el LURR la ganancia de probabilidad
potencial asociada y reduce su eficacia como una técnica de predicción operacional.
Finalmente, los esfuerzos para crear una predicción probabilística usando LURR por Yu
and Zhu (2010) podría ayudar a resolver las preguntas que rodean la capacidad de
predicción del método.
2.3.7 Índice informático de patrón
El índice PI (del inglés Pattern Informatics) es un método analítico para cuantificar
los cambios de tasa de sismicidad espacio-temporal en sismicidad histórica (Holliday et
al., 2006a; Rundle et al., 2002; Tiampo et al., 2002). Prácticamente, el método es una
medida objetiva en el cambio local en sismicidad relativo a la sismicidad de fondo a
largo plazo que ha sido usada para predecir grandes terremotos. El método identifica
patrones espacio-temporales de activación anómala o inactividad que sirve como
proxys para cambios en la tensión subyacente que puede preceder a grandes
terremotos. Como resultado, estas anomalías pueden estar relacionadas con la
localización de grandes terremotos que ocurren en los años siguientes a su formación
(Tiampo et al., 2002, 2006a). De nuevo, la teoría sugiere que estas estructuras sísmicas
están relacionadas con cambios en los niveles de tensión subyacente (Dieterich, 1994;
Dieterich et al., 2002; Tiampo et al., 2006a; Toda et al., 2002).
El índice PI es calculado usando datos de catálogos instrumentales de áreas activas
sísmicamente. Debido a que la relación magnitud-frecuencia GR implica que, para un
volumen espacial V suficientemente grande y para un intervalo de tiempo
suficientemente largo, la frecuencia de terremotos sea constante para magnitudes
m≥mc (Richter, 1958; Turcotte, 1997), se calcula sobre una gran región con una tasa de
fondo constante, o el valor a de la relación GR. Mc es la magnitud de corte denotando
la magnitud mínima de integridad. Los datos sísmicos son mapeados por ubicación en
recuadros. En California, un tamaño de recuadro de la cuadrícula de 0,1º en latitud y
longitud tuvo éxito, pero esto podría variar con las áreas tectónicas. Las series de
tiempo son creadas para cada una de estas ubicaciones mapeadas. Una casilla de
tiempo individual cuantifica el número total de eventos en cada ubicación que ocurrió
en ese intervalo de tiempo. Cada localización se denota con xi, donde i oscila desde 1
hasta N localizaciones totales. La tasa de actividad sísmica observada ψobs(xi,t) es el
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 34
número de terremotos por unidad de tiempo, de cualquier tamaño, en la casilla xi en el
tiempo t. Aquí el periodo de tiempo es un año, de modo que ψobs(xi,t) es el número
de eventos por año, quitando la media. La función S (xi,t0,t) de sismicidad media de
tiempo sobre el intervalo (t−t0) es F���, � , �� = ��GHGI�J ΨL#M���, ��N�GGI (2.3.8)
S(xi,t0,t) es calculada para N ubicaciones y t0 es un tiempo ajustado, tal como el
comienzo del catálogo. Designando promedios espaciales sobre los N compartimentos
con <>, la función de etapa S′(xi,t0,t) es definida para ser la media cero, función de
unidad-norma obtenida desde S (xi, t0, t):
FO��� , � , �� = P�Q+,GI,G�HRP�Q+,GI,G�S||P�Q+,GI,G�|| (2.3.9)
Aquí || S(xi,t0,t) || es la norma L2 o la raíz cuadrada de la varianza, para todas los
casillas espaciales. Para una región espacial y temporal suficientemente grande, las
medias espaciales a largo plazo son constantes, y el vector S′(xi,t0,t) es una medida
efectiva de las variaciones locales en sismicidad, dando datos sísmicos de buena
calidad. Dividiendo por la desviación estándar constante se normaliza la sismicidad
regional por su fondo y se aclara pequeñas fluctuaciones locales en sismicidad. Estos
cambios en sismicidad son designados por ΔS′(xi,t1,t2)=S′(xi,t0,t2 )−S′(xi,t0,t1). De nuevo,
ΔS′(xi,t1,t2) representa los cambios en la actividad temporal y espacial relacionada con
los cambios de tensión subyacentes en el sistema. Estos pueden ser positivos o
negativos, dependiendo de si es actividad sísmica identificada o inactividad (Tiampo et
al., 2002, 2006b).
Finalmente, ΔS′(xi,t1,t2) se promedia sobre todos los años base posibles, t0. Para
cualquier catálogo o periodo de tiempo dado, el índice PI, ΔP, es la potencia asociada
con ΔS′(xi,t1,t2), ΔP(xi,t1,t2)={ΔS′(xi,t1,t2)}2−μp., donde μp es la media espacial de
{ΔS′(xi,t1,t2)}2 o el fondo dependiente del tiempo (Tiampo et al., 2002).
En 2002, Rundle et al. publicaron una predicción prospectiva para California para
el periodo comprendido entre 2.000 y 2.010, ambos inclusive. Tiampo et al. (2002,
2006a) aplicó el índice PI a California con el objetivo de identificar variaciones espacio
temporales sistemáticas en sismicidad, incluyendo sombras de tensión después de
grandes eventos en el sur de California.
Los años transcurridos habían llevado a varias extensiones o modificaciones del
método PI, así como su aplicación a otros regímenes tectónicos. Por ejemplo, Tiampo
et al. (2006a) mostró que el método era capaz de detectar cambios premonitorios a
tiempo y predecir eventos que no estaban en el catálogo instrumental. En Tiampo et
al. (2006c), el método PI fue adaptado a pequeñas regiones alrededor de cada
anomalía individual, y fueron predichas dimensiones de ruptura para eventos
históricos con razonable exactitud. Este método también fue aplicado en Tiampo et al.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 35
(2008) a localizaciones identificadas por el método SAM.Las investigaciones en curso
sobre el método PI condujeron a lo que se llegó a conocer como la técnica del PI
modificado (MPI del inglés Modified PI). En este método, la sismicidad instrumental es
filtrada en magnitud y espacio (Chen et al., 2005; Holliday et al., 2005, 2006a; Nanjo et
al., 2006a,b).
El método MPI predijo retrospectivamente el terremoto de M7.6 en Chi-Chi en
1.999 y los eventos de M6.7 y M6.4 en Pingtung en alta mar en 2006 en Tailandia
(Chen et al., 2005; Wu et al., 2008a,b) así como el terremoto de M7.2 en Kobe en
1.995 en Japón (Nanjo et al., 2006a,b). También predijo prospectivamente el
terremoto de M6.8 en Niigata en 2.004 (Nanjo et al., 2006a,b), y los terremotos de
M8.1 en la isla Macquarie en 2.004 así como el de M9.0 en Sumatra en 2.004 (Holliday
et al., 2005).
Holliday et al. (2006b,c) adaptó el método PI combinándolo con el método de
intensidad relativa (RI del inglés relative intensity, detallado más adelante), llamándolo
RIPI. Después de señalar que los episodios de terremoto mayores preferencialmente
ocurren durante intervalos de tiempo cuando las fluctuaciones en intensidad sísmica,
como medía el PI, son menos importantes que el RI, calcularon un índice de habilidad
de Pierce para cada uno y restaron el índice PI al índice RI. Si esa diferencia de índice
de habilidad es positiva, se emite un aviso. El espacio de tiempo es definido por la
longitud media de tiempo necesario en esa región para producir tantos eventos del
tamaño de corte de magnitud mínima como en la magnitud predicha. Una predicción
retrospectiva RIPI para Sumatra produce un periodo de advertencia desde mediados
de 2003 hasta el evento de M9.0 en Diciembre de 2004 (Holliday et al., 2006b).
El método PI original continua siendo usado para predecir en otras regiones. Toya
et al. (2009) usó una técnica PI tridimensional para realizar predicción retrospectiva
para Tailandia y Sumatra. Trabajos recientes incluyen aplicaciones del método MPI
sobre varias regiones tectónicas en China (Jiang and Wu, 2008, 2010a; Zhang et al.,
2009). Jiang and Wu (2008, 2010a) hallaron que el método PI supera el método RI y
que pruebas retrospectivas predicen con exactitud el terremoto de M7.9 en
Wenchuan en 2.008. También hallaron que determinar los parámetros óptimos, tales
como el periodo de tiempo y la discretización de tamaño del recuadro, es difícil y da
como resultado un número significativo de falsos positivos
Este resultado particular destaca un tema importante en la predicción basada en
sismicidad. Muchos algoritmos requieren momentos constantes (en particular ver
ecuación (2.3.8)), y los catálogos sísmicos instrumentales a menudo están sujetos a
efectos sistemáticos, tales como la cobertura de red variante y la magnitud mínima de
integridad. Ello da como resultado objetos en los datos que aparecen como anomalías
o falsos positivos. Un método para mejorar predicciones basadas en sismicidad en
general, y el algoritmo PI en particular, basado en la métrica Thirumalia-Mountain
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 36
(TM) (Thirumalai and Mountain, 1993; Thirumalai et al., 1989), asegura que la elección
de la región espacial, discretización y periodos de tiempo da como resultado series de
tiempo estacionarios. Las aplicaciones de este método TM previo a implementar la
predicción mejora significativamente la exactitud y específicamente reduce el número
de falsos positivos en la predicción (Tiampo et al., 2010).
Debe destacarse que, a pesar de que Zechar and Jordan (2008) encontraron que
el método PI no actuaba mucho mejor que el método RI, no estaban realizando dicho
test sobre el intervalo total de diez años que fue el periodo de predicción publicado
(Rundle et al., 2002). Nanjo (2010) demostró que tanto el PI como el RI actuaban
significativamente mejor que el mapa de peligro sísmico nacional (NSHM del inglés
Natinal Seismic Hazard Map)
La dificultad de señalar el tiempo de los próximos eventos permanece como el
mayor inconveniente al método PI. A pesar de que el método actúa muy bien en la
predicción de eventos a medio plazo (en un periodo de tiempo de 5 a 10 años) con
muy pocos fallos (2 fallos en 39 eventos en un periodo de 10 años en California), la
cuestión sigue siendo si el gran número de anomalías restantes (falsos positivos) son el
resultado de la naturaleza cambiante del régimen de tensión sobre ese periodo de 10
años, o si son la firma de grandes eventos que tienen que ocurrir. Predicciones
retrospectivas en los catálogos sintéticos y de alta calidad sobre periodos de tiempo
incrementales podrían ayudar a resolver el primer problema; el segundo, de nuevo,
destaca la necesidad de periodos de tiempo más largos sobre los cuales observar la
evolución del sistema de falla natural (Jackson and Kagan, 2006; Schorlemmer and
Gerstenberger, 2007; Vere-Jones, 1995, 2006; Zechar et al., 2010).
2.4 Modelos de sismicidad arreglados
Los modelos de sismicidad arreglados son una clase más general de modelos de
predicción basados en sismicidad, los cuales definen las importantes características
físicas espacio-temporales de los procesos de terremotos, caracterizándose estas de
una manera matemática y/o probabilística, y calibrando el modelo basado en datos
disponibles de los catálogos sísmicos para regiones tectónicas particulares.
Originalmente desarrollado por Frankel (1995) el enfoque sísmico arreglado ha
sido extendido a muchos diferentes algoritmos y regiones por todo el mundo (ver, por
ejemplo, Helmstetter et al., 2006, 2007; Kafka, 2002; Kagan and Jackson, 1994, 2000;
Kagan et al., 2007; Nanjo, 2010; Rhoades and Evison, 2004; Stirling et al., 2002a, entre
otros).
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 37
Aunque el algoritmo arreglado particular varía, el uso de una función Gaussiana
bidimensional en la cual la distancia es específica para cada región tectónica es todavía
la técnica implementada más extendida (Frankel et al., 1996; Petersen et al., 2008). Los
modelos arreglados pueden ser formulados para contar la agrupación que existe en la
sismicidad natural como resultado de las correlaciones espaciales y temporales entre
eventos que surgen debido a las interacciones de transferencia de tensión (King et al.,
1994). Además, a pesar de que los datos de catálogo de terremotos actuales a menudo
son limitados por los cortos periodos de tiempo disponibles para los datos registrados,
particularmente en magnitudes pequeñas, el arreglado espacial puede compensar
esta falta de datos así como para errores en los datos, tales como los de magnitud y
localización (Nanjo, 2010; Werner and Sornette, 2008). A lo largo de los últimos 10
años, se han hecho significativos progresos en el desarrollo de métodos para
caracterizar los procesos físicos relacionados con la generación sísmica en esta clase de
modelos. Señalar que un gran número de técnicas han sido adaptadas a predicciones a
corto plazo del orden de días, ya sea como complemento o en lugar de predicciones a
medio plazo.
Los modelos de sismicidad arreglados son intuitivamente atractivos porque
concentran peligros sísmicos en áreas que han tenido terremotos en el pasado, una
propiedad de la sismicidad que ha sido justificada por un gran número de
investigadores (ver por ejemplo Allen, 1968; Davison and Scholz, 1985; Frankel et al.,
2002; Kafka, 2002; Petersen et al., 2007). A pesar de que muchas versiones pueden ser
bastante complicadas, la formulación básica es relativamente sencilla y los resultados
pueden ser fácilmente probados contra estadísticas de catálogo instrumentales.
Virtualmente todos los métodos pueden ser comparados con hipótesis nulas tanto
aleatorias como agrupadas de una manera relativamente sencilla. Muchas también
pueden evolucionar con el tiempo, potencialmente monitorizando las dinámicas del
sistema de fallas. Predicciones de modelos de peligro proporcional (PHM del inglés
proportional hazard model), por ejemplo, son recalculados en la actualidad tanto en
intervalos regulares como en grandes eventos que se producen que modifican la
naturaleza espacio-temporal en curso de la sismicidad en la región (Faenza and
Marzocchi, 2010). Sin embargo, errores o falta de información en los catálogos
instrumentales pueden dar como resultado grandes errores en la predicción
resultante, particularmente para grandes eventos que tienen escasas estadísticas y
aquellas áreas que han estado inactivas en los últimos tiempos (Werner and Sornette,
2008).
Aquí discutimos esos métodos, los cuales han tenido mayor impacto en el ámbito
y son un área en curso de investigación. En particular, un gran número de
metodologías de reconocimiento de patrones, aunque podrían mostrar una promesa
significativa, son omitidas porque son difíciles de implementar o no son aplicadas
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 38
extensamente hasta la fecha. Esto incluye técnicas de redes neuronales (Adeli and
Panakkat, 2009; Alves, 2006; Madahizadeh and Allamehzadeh, 2009; Sri Lakshmi and
Tiwari, 2009) , algoritmos de reconocimiento de patrones tales como agrupamientos k-
means (Morales-Esteban et al., 2010), métodos de modelos de Markov ocultos (Ebel et
al., 2007), y simulaciones de autómatas celulares (Jiménez et al., 2008). La siguiente
metodología lleva a cabo investigaciones de predicción en curso en regiones sísmicas
activas y con catálogos de alta calidad.
2.4.1 EEPAS
El método conocido como “cada terremoto es un precursor acorde con la escala”
(EEPAS del inglés Every Earthquake is a Precursor According to Scale) está basado en el
fenómeno de incremento de escala precursora, donde incrementos sísmicos menores
ocurren antes y en la misma región que grandes eventos de la misma forma que las
réplicas. Como resultado, es tanto un modelo sísmico arreglado como basado en física,
pero es clasificado aquí como el segundo, porque la predicción generada está
intrínsecamente vinculada con las distribuciones asociadas con cada parámetro
modelado.
Originalmente formulado en base a observaciones de nubes precursoras (Evison
and Rhoades, 1997, 1999), la idea fue extendida hasta la clase general de sismos
previos para identificar precursores localizados (Evison and Rhoades, 1999, 2002,
2004). El modelo estocástico EEPAS fue formulado basándose en la simple idea de que
cada terremoto es un precursor, y su entrada en el modelo es escalado con su
magnitud (Rhoades, 2010; Rhoades and Evison, 2004).
Para una revisión más exhaustiva de la historia del EEPAS ver Rhoades, 2010, pera
la relación para la tasa de densidad sísmica total, λ(t,m,x,y), en cualquier magnitud, m,
localización, x, e y, y tiempo, t, es dado por λ�t,m, x, y� = μλ ��,Y, �, ;� +∑ ƞ�Y��G+\GI,+\I λ���,Y, �, ;� (2.4.1)
donde μ es constante, λ0 es la tasa de densidad referencia , t0 es el tiempo de
comienzo del catálogo, y η es una función normalizada. λi es un incremento transitorio
de la función de tasa de densidad futura debido a cada terremoto λ�t,m, x, y� = ]� �̂����_���Y�h����, ;� (2.4.2)
y
�̂���� = a�GHG+��GHG+�bcde�� �√<g h�i '− �< �djk�GHG+�HlcH#c+bc �<-, (2.4.3)
_���Y� = �bm√<g h�i '− �< �HlmH#m+bm �<-, (2.4.4)
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 39
ℎ����, ;� = �<gbop� qo@+ h�i r−��QHQ+�H�sHs+�p<bop� qo@+ �t. (2.4.5)
H(s) es la función Heaviside y aM, bM, σM, aT, bT, σT, σA, y bA son parámetros
derivados de relaciones recursivas y predictivas para catálogos de terremotos
regionales (Rhoades, 2007).
Cualitativamente, el modelo es estructurado como un proceso de ramificación de
tipo epidémico, pero aquí los terremotos pequeños no desencadenan los grandes. En
vez de eso, como el método PI, son un sensor para un próximo evento grande (Evison
and Rhoades, 2001). También, las variadas versiones de la distribución normal utilizada
anteriormente cuantifica los errores distribuidos normalmente en las relaciones de
predicción de los datos, mientras que la magnitud-frecuencia estándar es capturada en
la función normalizada η(mi), la cual es tomada de la relación frecuencia-magnitud del
catálogo GR y, para la mayoría de aplicaciones, se reduce a una constante (Rhoades,
2007).
Las relaciones precursoras, originalmente obtenidas por Evison (1977), revelan
que las escalas de tiempo de predicción varían de 5 a 30 años para magnitudes que
van de 5 a 8, con un área de ruptura correspondiente de 2.000 a 20.000 km cuadrados,
en el mismo orden que la región de réplica. Eventos de M≥4 son requeridos como
entrada con el objetivo de predecir terremotos con M≥5.8 (Rhoades, 2007; Rhoades
and Evison, 2004).
El método EEPAS ha sido usado para predicciones sísmicas en Nueva Zelanda,
California, Grecia y Japón, incluyendo un modelo EEPAS que fue sometido a los tests
de RELM (Rhoades, 2007; Rhoades, 2010; Rhoades and Evison, 2005; Rhoades and
Gerstenberger, 2009). Recientemente, Rhoades and Gerstenberger (2009) formularon
un modelo de predicción que incluye un componente a medio plazo del EEPAS y un
componente a corto plazo de la probabilidad del modelo de terremotos a corto plazo
(STEP del inglés short-term earthquake probabiliy) para actividades de réplicas. Debido
a que esa es la fuerza del EEPAS, proporciona un modelo consistente estadístico para
los sismos previos, esto presenta una importante oportunidad para integrar y probar la
importancia de los supuestos físicos subyacentes así como su capacidad de predicción
2.4.2 Sismicidad arreglada dependiente del tiempo
En 1.994, Kagan y Jackson describieron por primera vez un método para
desarrollar modelos sísmicos arreglados extrapolando la información de catálogos
sísmicos en predicciones probabilísticas. Efectivamente, este es una predicción
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 40
independiente del tiempo en la cual las tasas de catálogos sísmicos históricos e
instrumentales son espacialmente prorrateados para periodos de tiempo particulares.
En los años siguientes, este método particular ha sido aplicado en el noroeste y
sudeste del pacífico (Jackson and Kagan, 1999; Kagan and Jackson, 2000), California
(Helmstetter et al., 2006; Kagan et al., 2007), and Italy (Werner et al., 2010).
Aquí la tasa de densidad de terremoto, Λ(θ,ɸ,m,t), la probabilidad por unidad de
área, tiempo y magnitud, es asumido como constante en tiempo y es estimado como
la suma de contribuciones de todos los eventos a partir de una magnitud de corte
prescrita. Como en el caso con los modelos sísmicos más arreglados, pueden ser
aplicados para cualquier mínima magnitud de corte.
Por ejemplo, Kagan et al. (2007) emplea una magnitud de corte de 5.0 mientras
que en la versión de Helmstetter et al. (2007) la magnitud de corte es 2.0. La forma
general de la función es Ʌ�θ,ɸ,m, t� = f�θ,ɸ�g�m�h�t� (2.4.6)
donde θ es la latitud, ɸ es la longitud,m es la magnitud, t el tiempo, f(θ,ɸ) es la
función de densidad espacial y g(m) es la distribución de magnitud normalizada. h(t) es
la tasa (numero por unidad de tiempo) de todos los terremotos dentro del área de
interés donde, para una predicción independiente del tiempo, h(t) es asumida que es
constante. Es importante destacar la similitud de las fórmulas de las ecuaciones (2.4.6)
hasta (2.4.2). De nuevo, aquí la variación del tiempo se representan por una constante,
creando una predicción dependiente del tiempo, mientras que en EEPAS, esa función
tiene una dependencia logarítmica normal.
Varios investigadores emplean diferentes funciones de densidad espacial. En
general, f es una suma ponderada de núcleos arreglados, cada uno centrado en el
epicentro de un evento previo. Por ejemplo, Kagan and Jackson (1995) emplean la
función ^�y, z� = ∑ �̂�y�, z�� � + {, (2.4.7)
donde s es una constante que representa los eventos inesperados en el catálogo y
�̂�y�, z�� = �̂���� = ��Y� − 5.0� (�*+, �1 + }~�{<����" + {. (2.4.8)
La distancia de cada epicentro, ri es redondeada a 200 km, de lo contrario la
función del origen sería igual a cero. A es una constante normalizada δ es un
parámetro cuantificando el grado de concentración azimutal, y ψ mide la orientación
del punto del mapa relacionado con el plano azimutal de falla para un evento dado en
un catálogo (Kagan and Jackson, 1994, 1995).
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 41
Helmstetter et al. (2007) and Werner et al. (2010) emplean una función de núcleo
diferente para el arreglo espacial,
��+���� = ���+��|*�|p��+p�D.� (2.4.9)
Aquí di es la distancia de arreglo adaptada y C es una constante de normalización.
La función de densidad espacial puede ser optimizada por varios parámetros
usando el catálogo existente. Helmstetter et al. (2007) emplea una técnica de
probabilidad logarítmica, por ejemplo. Finalmente, g(m), la distribución de tamaño de
terremoto, es elegida para seguir una relación de frecuencia-magnitud GR cónica (Bird
and Kagan, 2004; Gutenberg and Richter 1944) con parámetros que varían con las
regiones tectónicas. De nuevo, los resultados son escalados para el periodo de tiempo
predicho de interés.
La predicción de Jackson and Kagan (1999) para la cuenca occidental del Pacífico
y California puede ser consultado en http://scec.ess.ucla.edu/~ykagan/. Una
predicción CSEP a 5 años para Italia puede verse en (Werner et al., 2010).
A pesar de que predicciones independientes del tiempo como estas, escaladas al
periodo de tiempo apropiado y con errores bien caracterizados, son importantes y
muy útiles para estimaciones de riesgo sísmico, implícito en este trabajo está el
supuesto de que un catálogo sísmico completo proporcionara toda la información
requerida, probabilísticamente, en la localización y tiempo de eventos futuros. Esto
podría ser posible, al menos en escalas de tiempo históricos, si los catálogos tuvieran
un registro completo de todos los posibles eventos en una región tectónica, lo cual no
es actualmente el caso. Además, este algoritmo particular no incluye la posibilidad de
que haya fluctuaciones dependientes del tiempo a corto plazo que podría mejorar las
capacidades de predicción en escalas de tiempo variables.
2.4.3 Metodologías ETAS
La hipótesis de secuencia de réplica de tipo epidémico original (ETAS del inglés
epidemic-type aftershock sequence) fue formulada por Ogata (1985a,b, 1987, 1988,
1989). No sólo es un modelo de secuencias de réplica, ETAS es fundamentalmente un
modelo de sismicidad interactiva desencadenante en la cual todos los eventos tienen
roles idénticos en el proceso de activación. De nuevo, es tanto un modelo basado en
física como un modelo de sismicidad arreglado, pero es clasificado aquí como lo
segundo porque las predicciones están intrínsecamente conectadas a las
distribuciones asociadas con cada parámetro. En este proceso cada terremoto se
considera como desencadenante por eventos anteriores y como un provocador
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 42
potencial para terremotos subsecuentes, por ejemplo, cada evento es una réplica
potencial, sismo principal o sismo previo, con sus propias consecuencias de réplica.
Para sismicidad general un plazo de fondo con un componente aleatorio es añadido a
la formulación. En los años siguientes, el modelo ha sido usado en muchos estudios
para describir la distribución espacio-temporal y características de la sismicidad actual
Console and Murru, 2001; Console et al., 2003; Helmstetter and Sornette, 2002,
2003a,b; Ma and Zhuang, 2001; Ogata, 1988, 1998, 1999, 2005; Ogata and Zhuang,
2006; Saichev and Sornette, 2006; Vere-Jones, 2006; Zhuang et al., 2004, 2005 entre
otros). Para una revisión más extensa de los primeros años de desarrollo y aplicación
de ETAS, ver Ogata (1999) and Helmstetter and Sornette (2002).
En años recientes, el ETAS ha sido utilizado por un gran número de investigadores
para el desarrollo de modelos de predicción sísmicos suavizados, a corto y medio plazo
(Console and Murru, 2001; Console et al., 2003; Console et al., 2006a,b, 2007, 2010;
Falcone et al., 2010; Helmstetter et al., 2005, 2006, 2007; Lombardi and Marzocchi,
2010a,b; Murru et al., 2009). En general, el algoritmo ETAS es usado en un modelo
ramificado donde el evento padre de una magnitud y localización dada produce una
serie de eventos hijos que ocurren en alguna región y tiempo específicos. El número
medio de hijos producidos por cada evento padre es la relación de ramificación
(Helmstetter and Sornette, 2003b). El modelo ETAS incluye la contribución de cada
evento previo basado en la magnitud del terremoto desencadenante, la distancia
espacial desde el evento desencadenante, y el intervalo de tiempo entre el evento
desencadenante y el tiempo de la predicción, y sigue la fórmula ����, ;, �,Y� = ℎ�� − ���h�i�−��Y� −Y �"^�� − �� , ; − ;�� (2.4.10)
Destacar, de nuevo, que son de la misma forma que las ecuaciones (2.4.2) y
(2.4.6), anteriores: una normalización de la constante de tres funciones, una de las
cuales codifica el comportamiento temporal, una segunda la relación de magnitud, y
una tercera el patrón espacial. Aquí, i es el evento individual, xi e yi son las
localizaciones de ese evento, mi es la magnitud del evento, m0 es un límite inferior en
la magnitud desencadenante, β=bln10, donde b es la pendiente de la relación
magnitud-frecuencia GR (Console et al., 2010; Helmstetter and Sornette, 2003b).h(t−ti)
se toma de la ley de Omori modificada (Ogata, 1983; Utsu et al., 1995) : ℎ�� − ��� = �� + ~�H���Y�, (2.4.11)
donde c y p son parámetros característicos, p>1 y ��Y� = �10��HI� . (2.4.12)
ρ(m) da el número total de réplicas provocadas por un evento de magnitud m. α
normalmente es un valor menor que b (~0.7–0.8) mientras que en algunas aplicaciones
se establece a cero, dando como resultado el desencadenamiento solo por terremotos
mayores que m0 (Console et al., 2010; Helmstetter and Sornette, 2003a, 2003b;
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 43
Lombardi and Marzocchi, 2010a,b). Las investigaciones han mostrado también que es
posible sustituir otros modelos físicos en lugar de la ley de Omori. Por ejemplo,
Console et al. (2007) emplea la ley de velocidad y estado para generar tasas sísmicas
en un modelo de tipo epidémico (Console et al., 2006a, 2010; Dieterich, 1994; Falcone
et al., 2010; Ruina, 1983).
La función de distribución espacial puede variar, pero normalmente es escogida
por ser una función circular de la distancia de activación, por ejemplo:
^��, y� = r �+p�*p��+p�t� (2.4.13)
donde f(x,y) es convertido a coordinadas polares, r es la distancia de x a y, q es un
parámetro libre que modela el decaimiento con la distancia, y di es la distancia de
activación para un terremoto dado. di puede ser caracterizado como una función de
magnitud, tal como (Console et al., 2010; Kagan, 2002; Lombardi and Marzocchi,
2010a,b) N� = N 10 .��+HI�. (2.4.14)
Con el objetivo de producir un mapa de predicción usando ETAS, una tasa de
sismicidad de fondo independiente del tiempo generalmente es añadida al modelo de
ramificación ETAS dependiente del tiempo. Mientras que este componente podría
estar basado en un mapa de riesgo a largo plazo, como en el modelo de probabilidad
de réplica a corto plazo (STEP) (ver más abajo), o en una predicción independiente del
tiempo a largo plazo. La fórmula de la ecuación final es: ���, ;, �,Y� = ����, ;� +∑ ����, ;, �,Y�GRG+ (2.4.15)
donde ν es la tasa de fondo para todo el catálogo y u(x,y) es un pdf de las tasas de
evento para toda la región (Console et al., 2010; Lombardi and Marzocchi, 2010a,
2010b).
En la práctica, los diversos parámetros anidados en las ecuaciones desde (2.4.10)
hasta (2.4.15) están determinados por los catálogos sísmicos regionales, y optimizados
para diferentes periodos de tiempo usando uno de los varios esquemas de
optimización potenciales. Además, debido a que la física del proceso ETAS está
dominada por el mecanismo de activación, muchas predicciones dependientes del
tiempo producidas con esta metodología son a corto plazo, del orden de días, como se
muestra en (Falcone et al., 2010).
Los modelos de predicción ETAS han sido aplicados en California, Italia, Grecia y
Japón (Console and Murru, 2001; Console et al., 2003, 2006a,b, 2007, 2010; Falcone et
al., 2010; Helmstetter and Sornette, 2003b; Helmstetter et al., 2006, 2007; Lombardi
and Marzocchi, 2010b;Murru et al., 2009), donde se ha demostrado que actúan mejor,
al menos en escalas a corto plazo, que el modelo de hipótesis nula de Poisson.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 44
Finalmente, en una versión de ramificación doble del algoritmo ETAS, el modelo de
ramificación doble (DBM del inglés double-branching model) fue desarrollado para
incorporar periodos físicos más largos en el modelo y adaptarlo para predicciones a
más largo plazo (Lombardi and Marzocchi, 2010a;Marzocchi and Lombardi, 2008). El
DBM incorpora un segundo proceso de ramificación, después de la aplicación de un
modelo ETAS, para tener en cuenta la modulación a largo plazo de ocurrencias de
terremotos. Después del ajuste del parámetro ETAS, el catálogo es desagrupado y la
sismicidad residual es modelada con una relación similar en forma al modelo original
ETAS dado anteriormente.
Los resultados para predicciones de 5 a 10 años se muestran en (Lombardi and
Marzocchi, 2010a).
2.4.4 Método de intensidad relativa
El modelo de predicción RI (del inglés Relative Intensity) fue propuesto por
primera vez por Holliday et al. (2005), principalmente como una hipótesis nula mejor
para testing predictivo que un modelo de sismicidad no agrupado aleatorio. La idea es
usar la tasa de ocurrencia de terremotos en el pasado con el objetivo de predecir la
localización de futuros grandes terremotos, en el que futuros grandes eventos están
considerados más probable donde actividad sísmica mayor ocurrió en el pasado
El algoritmo RI es el más simple de los modelos de sismicidad arreglados y fue
originalmente formulado como una predicción binaria, aunque ha sido modificada de
diversas formas desde aquella vez. Inicialmente, la región estudiada es representada
con casillas cuadradas
En California estos son típicamente 0.1º x 0.1º, así las localizaciones de predicción
son pequeñas, del orden de la dimensión de ruptura de la magnitud de predicción más
pequeña. El número de terremotos con magnitud M≥Mc, donde Mc es la magnitud
mínima de corte, en cada casilla es determinado sobre el periodo de tiempo del
catálogo. El marcador de RI para cada casilla es computado entonces como el número
total de terremotos en la casilla en ese periodo de tiempo dividido por el valor que
tiene el valor mayor. El valor del umbral en el intervalo [0,1] es entonces seleccionado,
y todos los valores anteriores que se espera que tenga un gran evento sobre el periodo
de predicción de interés, resulta en una predicción binaria. Las casillas restantes con
marcadores RI más pequeños que el umbral representan sitios en los cuales grandes
terremotos no se espera que ocurran. El resultado es un mapa de localizaciones en una
región sísmica donde los terremotos son previstos que ocurran en un futuro periodo
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 45
de tiempo a medio plazo. Destacar que un umbral alto reduce las regiones predichas
pero da como resultado más eventos que no están predichos, mientras que reducir el
umbral a su vez reduce los fallos para predecir pero incrementa las falsas alarmas
(Holliday et al., 2005).
El RI fue rápidamente adoptado como hipótesis nula para testing generales de
otras predicciones debido a su superioridad intrínseca en hipótesis sísmicas aleatorias
no agrupadas, un resultado natural y esperados porque los terremotos tienden a
ocurrir donde ya han ocurrido en el pasado (Frankel et al., 2002; Tiampo et al., 2002;
Zechar and Jordan, 2008). Más tarde, se expandió para usarse como modelo de
predicción por derecho propio (Holliday et al., 2006b;Nanjo, 2010; Shcherbakov et al.,
2010). El método RI fue aplicado para predicciones prospectivas en una gran variedad
de regímenes tectónicos, incluyendo California, Japón y por todo el mundo (Holliday et
al., 2005; Rundle et al., 2003; Nanjo et al., 2006a,b; Tiampo et al., 2002). Nanjo (2010)
demostró que el método RI en California se comportaba mejor que el NSHM sobre un
periodo de tiempo de 10 años. Holliday et al. (2006b, 2006c) demostró que, para
periodos de tiempo particulares, el método RI proporciona información importante en
la probabilidad de futuros eventos. Combinaba el método RI con el método PI en el
método de predicción RIPI (Holliday et al., 2006b), discutido de forma extensa
anteoriormente.
Nanjo (2010) amplió el método RI con el objetivo de convertir el método de un
sistema binario a un modelo CSEP testeable para Italia que predice el número de
terremotos en magnitudes predefinidas. La entrada final fue tanto modelos de 5 años
como de 10 años así como un modelo ajustado de 3 meses. Modificó la aproximación
original RI para el proceso de categorización de los datos con el objetivo de mejorar las
predicciones, lo cual añadía arreglo adicional (Holliday et al., 2007; Nanjo et al.,
2006a). La tasa de sismicidad está compuesta por cada casilla hallando la media sobre
el vecino de Moore, las ocho casillas que la rodean. Después, con el objetivo de
proporcionar una predicción continua para cada casilla, la predicción es extrapolada en
una casilla de magnitud dada dentro de un rango de magnitud también dada,
M1≤MbM2 usando la ley magnitud-frecuencia GR como la ofrecida por la sismicidad
histórica (Nanjo, 2010).
La metodología RI puede ser ampliada a otras medidas de sismicidad. Shcherbakov
et al. (2010) usó la tensión de Benioff acumulativa en cada celda durante un periodo
de entrenamiento con el objetivo de desarrollar una predicción mundial para un
periodo de tiempo futuro, donde la tensión de Benioff es la raíz cuadrada de la energía
del seísmo. La tensión de Benioff acumulada, B, en el tiempo t es computada usando
los datos del catálogo del CMT (Harvard) (http://www.globalcmt.org) de los años 1976
a 2007, inclusivos, para magnitudes M≥5.5, donde
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 46
�Qs��� = ∑ ��Qs�������G���� (2.4.16)
Aquí, E����� es la energía sísmica liberada por el i-esimo terremoto, (xy) es la
coordenada celular, y Nxy(t) es el número acumulativo de terremotos en el tiempo t.
Estos valores son normalizados dividiendo por el valor máximo, Bmax, para todas las
localizaciones de casillas. El mapa RI entonces es convertido en una predicción binaria
introduciendo un umbral de tensión de Benioff acumulativo. Esas celdas con tensiones
de Benioff mayores que este umbral constituyen celdas de alarmas donde son
predichos que ocurrirán terremotos futuros. Uno de los principales objetivos de este
trabajo fue desarrollar un procedimiento de optimización estándar para predicciones
binarias con el objetivo de seleccionar el umbral óptimo (Shcherbakov et al., 2010).
El método RI tiene significativas capacidades de predicción (Holliday et al., 2005;
Rundle et al., 2003; Nanjo, 2010; Nanjo et al., 2006a,b; Tiampo et al., 2002). Sin
embargo, como muchas de estas técnicas, produce una relativamente alta tasa de
falsos positivos. Mientras que los métodos existen para bajar esa tasa de falsos
positivos, la elección del umbral y del tamaño de la cuadrícula es crítico para su
rendimiento (Shcherbakov et al., 2010; Zechar and Jordan, 2010). También como se
esperaba, el método es sensible a la calidad de los datos, como intrínsecamente se
basa en eventos predichos donde altas tasas de actividad han ocurrido en el pasado.
Como resultado, áreas que han estado inactivas por largos periodos de tiempo darán
como resultado falsos negativos, o fallos, en predicciones a medio plazo. Sin embargo,
mejores adquisiciones de datos sísmicos con tiempo mejorarán en gran medida la
precisión de futuras predicciones RI.
2.4.5 TripleS
El modelo de sismicidad suavizado simple (TripleS del inglés simple smoothed
seismicity model), fue desarrollado como una prueba de un modelo muy simple para
predicción de terremotos con un número mínimo de parámetros. En su forma más
básica, aplica un filtro suavizado Gaussiano a un conjunto de datos del catálogo y
optimiza un sólo parámetro, σ, el cual controla la extensión espacial de arreglo, contra
predicciones retrospectivas (Zechar and Jordan, 2010).
El método sísmico arreglado más simple es la técnica de predicción RI, como se
detalla anteriormente en este trabajo. En ese modelo, el arreglo es anisótropo y
uniforme. TripleS en vez de eso aplica un arreglo Gaussiano isotrópico bidimensional
que usa una función de origen continua que permitía una región más amplia de
influencia:
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 47
�b��, ;� = �<gbp exp�− Qp�sp<bp � (2.4.17)
Integrado en dos dimensiones sobre los límites (x1, y1, x2, y2) la fórmula se
convierte en
�b����$, ;��$, ��, �<, ;�, ;<� = �� 'erf (Q���HQpb√< , − erf�Q���HQDb√< �- 'erf (s���Hspb√< , −erf �;h �−;1¡2�
(2.4.18) Zechar and Jordan (2010) desarrollaron tanto predicciones de 5 como 10 años
usando TripleS. Primero derivaban una relación entre distancia desde el epicentro y σ
con el objetivo de determinar la distancia en la cual el efecto de cualquier epicentro
desaparecía. Entonces implementaban un procedimiento de optimización para el
índice de habilidad del área, una métrica de rendimiento detallada en Zechar and
Jordan (2008). Experimentos de predicción retrospectivos fueron diseñadas para
optimizar la distancia de arreglo con respecto al índice de habilidad del área (Zechar
and Jordan, 2010).
La técnica TripleS proporciona una oportunidad importante para probar los
efectos de formulaciones complejas en predicciones basadas en sismicidad, y a la
inversa. Futuros resultados proporcionaran información sobre los resultados de primer
orden disponibles desde el modelo de sismicidad de arreglo simple y evaluarán los
beneficios adicionales de modelos físicos y matemáticos más complejos.
2.4.6 Agrupamiento de terremotos no de Poisson.
Como se destacó anteriormente, la mayoría de modelos de sismicidad alisados se
basan en la idea de que los terremotos tienden a ocurrir en el futuro donde han
ocurrido ya en el pasado (Allen, 1968; Davison and Scholz, 1985; Frankel et al., 2002;
Kafka, 2002; Petersen et al., 2007).
En el caso del modelo de agrupación de terremotos no de Poisson a corto plazo,
un modelo de predicción diario presentado al proyecto RELM por Ebel et al. (2007), se
extiende la suposición de que las propiedades estadísticas medias de las ocurrencias
espaciales y temporales de terremotos con M≥4.0 durante el periodo de predicción
será la de los últimos 70 o más años, incluyendo réplicas y sismos previos. La
formulación espacial inicial está basada en esta premisa.
Debido a que este es principalmente un algoritmo de predicción de réplicas, la
tasa de ocurrencia media es modelada usando la ley de Omori (Utsu et al., 1995),
formando la base para predecir actividad cerca del epicentro de un gran terremoto
siguiendo inmediatamente ese evento. Si un terremoto de M≥4.0 ocurre en algún
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 48
lugar de la región, un círculo de radio R es dibujado alrededor del epicentro, como
definen Gardner and Knopoff (1974). En el caso de California, la relación de
Reasenberg and Jones (1989) para la ley de Omori fue elegida para calcular la tasa
esperada de terremotos de M≥4.0. Además, la distribución de Poisson de tiempo entre
los eventos es la distribución estadística desde la cual son derivados predicciones a
corto plazo de nuevos sismos principales. La predicción asume que todos los eventos
de magnitud más pequeña que el sismo principal son réplicas. Si un nuevo evento
tiene una magnitud mayor que el primer evento, la predicción asume que el primer
terremoto fue un sismo anterior. Cuando la tasa de réplica/sismo previo predicha cae
por debajo de la tasa de sismo principal de fondo para cualquier localización dada,
entonces la tasa del sismo principal de fondo es sustituida. Finalmente, para esas
localizaciones que están fuera de las zonas de réplica, la tasa media de eventos M≥4
para un catálogo de terremoto desagrupado regional es calculado y esta tasa media
del sismo principal es distribuida a lo largo de toda el área proporcionalmente a su
distribución pasada (Ebel et al., 2007).
Ebel et al. (2007) detalla las varias elecciones de predicción para cualquier día
dado y como son combinados en predicciones a corto plazo. Destacar de nuevo que
uno de los beneficios de un mapa de sismicidad arreglado es que la discretización
puede ser usada para probar las limitaciones del algoritmo y los datos disponibles y, al
menos en principio, los errores asociados con ambos pueden también ser evaluados.
2.4.7 Modelos potenciales de terremoto sísmico
El modelo potencial de terremoto sísmico, como propuso Ward (2007), es otra
versión de un modelo de sismicidad arreglado donde la teoría principal es que los
terremotos son probables de ocurrir en el futuro en la misma localización en los que
ocurrieron en el pasado. Las actuales localizaciones y dependencias de tiempo del
evento son construidos desde este principio basado en alguna combinación de las
leyes aceptadas generalmente de sismicidad, la distribución de magnitud frecuencia
GR (Gutenberg and Richter, 1944), la ley modificada de Omori (Utsu et al., 1995), y la
ley de Bath (Båth, 1965). De nuevo el requerimiento básico es un catálogo
instrumental de localizaciones de terremoto, fechas, y magnitudes y la magnitud
mínima estimada de integridad, mc.
En el modelo potencial de terremotos sísmico presentado por Ward (2007) al
centro de pruebas RELM, dos catálogos que abarcan desde 1.850 hasta 2.003 y desde
1.925 a 2.003, de Kagan (2005) and Kagan et al. (2006), fueron probados
respectivamente. La tasa potencial de terremoto ρ(r) sobre un área dada es calculada
usando un filtro Gaussiano,
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 49
����� = %�lGH� ∑ ¢�£�H¤¥*+H*¦¥/§¨p�g§p© (2.4.19)
Aquí Tcat es el inverso de la duración del catálogo, r es la localización de cualquiera
dos puntos i y j, y j esta sobre todos los elementos mayores que la mínima magnitud.
Estas tasas arregladas están reescaladas para asegurar que el número total de
eventos es el mismo para el modelo como en la región del catálogo actual.
Una vez que la tasa en la magnitud mínima es conocida, entonces las tasas en
magnitudes más altas son extrapoladas desde la relación de frecuencia-magnitud GR
con el valor b histórico y magnitud máxima.
2.4.8 STEP
En 2.005, el modelo de probabilidad de terremotos a corto plazo (STEP del inglés
short-term earthquake probability) fue inaugurado en
http://pasadena.wr.usgs.gov/step (Gerstenberger et al.,2005). STEP es otro método
que emplea una ley de sismicidad universal (en este caso la ley de réplicas modificada
de Omori) (Utsu et al., 1995) con datos históricos e instrumentales con el objetivo de
crear una predicción dependiente del tiempo. Debido a que el modelo STEP está
basado en la ley de Omori es una predicción a corto plazo que produce predicciones en
una escala de tiempo de días y cuya señal principal está relacionada con secuencias de
réplica, al igual que el modelo de agrupación no de Poisson de Ebel et al. (2007).
El modelo STEP combina un modelo de ocurrencia independiente del tiempo de
datos de falla tectónica con modelos de agrupación estocásticos cuyos parámetros
están derivados de datos de catálogo recientes y a largo plazo. El modelo
independiente del tiempo se elabora de los mapas de riesgo a largo plazo de la U.S.
Geological Survey de 1.996 (USGS) (Frankel et al., 1997). Tres modelos estocásticos son
calculados para incorporarse en el modelo de fondo: un modelo de agrupamiento
genérico, un modelo específico de secuencia, y un modelo heterogéneo espacial
(Gerstenberger et al., 2005).
Para el modelo de agrupamiento genérico, la tasa en el tiempo t es dada por
(Reasenberg and Jones, 1989, 1994): ���� = 10lª�#�«@H«�/�� + ~�� (2.4.20)
donde a',b,c y p son constantes y Mm es la magnitud del sismo principal. El modelo
específico de secuencia está estimado usando un valor posterior para los parámetros
de cada evento en la secuencia, si la secuencia es lo suficientemente larga. Un tercer
modelo heterogéneo espacialmente es calculado en cada punto de la cuadrícula donde
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 50
los parámetros son calculados basados en la sismicidad local promediada en una
relativamente estrecha región (Wiemer and Katsumata, 1999; Wiemer et al., 2002).
Para los dos primeros modelos, una vez que la tasa total de réplica es calculada, es
distribuida en un área que se extiende la mitad que una longitud de falla desde el
origen, con una densidad espacial proporcional a 1/r2 donde r es la distancia desde el
origen. En el modelo heterogéneo espacial, son calculadas tasas variables espaciales
desde la distribución actual de las réplicas que han ocurrido y han sido registradas.
Cada ajuste del modelo es evaluado usando el AIC corregido (Akaike, 1974; Burnham
and Anderson, 2002; Kenneth et al., 2002). El peso relativo para cada modelo es
calculado basado en su puntuación AIC. El modelo final es una suma ponderada de los
tres modelos estocásticos (Gerstenberger et al., 2005, 2007). Finalmente, en la versión
web del modelo STEP, los cálculos de riesgo basados en temblores de tierra son
hallados desde Boore et al. (1997).
El modelo original para California fue sometido al centro de pruebas RELM en
2.005 (Gerstenberger et al., 2007), y una versión revisada subsecuente para Italia fue
presentada en el centro de pruebas CSEP (Woessner et al., 2010). La premisa básica es
la misma, con tres diferencias importantes. La primera, el modelo independiente del
tiempo es derivado de un catálogo desagrupado el cual es entonces arreglado usando
el método TripleS de Zechar and Jordan (2010) (explicado más arriba). La segunda
modificación estuvo en la relación de productividad de réplica. Aquí los valores
derivados por Lolli and Gasperini (2003) fueron sustituidos, y el modelo se llamó STEP-
LG. El tercer método, llamado STEP-NG empleó el método de Christophersen and
Smith (2008) para estimar la productividad media basada en la abundancia media, el
número medio de réplicas como un función de magnitud del sismo principal.
Destacaron que, en general, el modelo de variación espacial produce el mejor ajuste a
los datos locales, pero más lejos de la falla, donde los datos son más escasos y la
magnitud mínima de integridad es mayor, el modelo específico de secuencia ajusta los
datos mejor (Woessner et al., 2010).
Esto sirve para ilustrar el potencial inconveniente mayor para predicciones de
réplicas a corto plazo. La calidad de los datos disponibles es crítico para la producción
de mapas de riesgo precisos, como en el caso de sistemas de información en tiempo
real o cercanos a tiempo real, argumentando para la mejora continua de redes
regionales y locales en áreas de riesgo sísmico alto.
2.4.9 HAZGRIDX
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 51
HAZGRIDX, como propuso Akinci (2010), es otra versión de un modelo sísmico
arreglado donde el alisamiento es gobernado por la relación magnitud-frecuencia GR.
Comenzando con un catálogo sísmico para Italia el cual esta desagrupado, la magnitud
mínima de integridad es determinada. La sismicidad es entonces arreglada usando el
método sísmico alisado espacialmente (Frankel, 1995) y es calculada la siguiente
ecuación para la tasa arreglada de eventos en cada celda y es normalizada por la
sismicidad regional total usando la siguiente ecuación:
ñ = ∑ !¦�E®/¯p¦:®±²¯∑ �E®/¯p¦:®±²¯ (2.4.21)
donde Δij es la distancia entre el centrado de las celdas i y j de la cuadrícula y el
parámetro c la distancia de correlación. La suma es tomada sobre todas las celdas j
dentro de una distancia de 3c de la celda i.
Una predicción CSEP a cinco años para Italia fue creada por el arreglado sobre una
distancia de correlación, c, de 15 km y calculando tasas de actividad para cada casilla
que cumplía la relación de magnitud-frecuencia GR regional. Un modelo de Poisson
independiente del tiempo es empleado para calcular la tasa recurrente para cada
evento.
Akinci (2010) destacó que, no sólo un catálogo integro tiene un efecto crucial en
la fiabilidad y la calidad de predicciones basadas en sismicidad potencial, sino que
también es crítico esa estimación exacta del valor b GR. En modelos tales como este,
un valor b bajo incrementará el valor de riesgo, mientras que una alta lo reduce.
Es necesario la adquisición de datos sísmicos de alta calidad sobre periodos de
tiempo largos con el objetivo de estimar con integridad valores b regionales y
proporcionar predicciones sísmicas arregladas más exactas.
2.4.10 Modelo de riesgo proporcional (PHM)
El Modelo de riesgo proporcional (PHM del inglés proportional hazard model) es
un método estadístico no paramétrico multivariante que caracteriza la dependencia
temporal de una función de riesgo que representa la probabilidad condicional
instantánea de una ocurrencia (Cox, 1972; Faenza et al., 2003, 2004; Kalbeisch and
Prentice, 1980). El modelo no asume a priori ninguna distribución estadística de los
eventos y puede ser usado para integrar simultáneamente diferentes tipos de
información. En este caso, permite análisis del proceso de ocurrencia de terremoto sin
el requisito de asumir un modelo tal como la distribución de terremotos característico.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 52
Además, permite probar el impacto en la distribución de eventos de la integración de
trozos individuales de información física y a medida que se integran en el modelo
probar su importancia relativa (Faenza and Marzocchi, 2010).
El PHM fue aplicado en estudios de la distribución espacio temporal de terremotos
destructivos en Italia (Cinti et al., 2004; Faenza and Pierdominici;, 2007; Faenza et al.,
2003), terremotos de tamaño medio en Europa central (Faenza et al., 2009), y grandes
terremotos por todo el mundo (Faenza et al., 2008) la cual mostraba que
agrupamientos temporales de eventos del orden de unos pocos años ocurren como
una señal precursora previa a grandes eventos. Su escala espacial oscila entre decenas
a cientos de kilómetros.
Dos tipos de variables aleatorias (RV del inglés random variables) son consideras
en esta versión del PHM, el tiempo entre eventos (IET del inglés inter-event time), el
intervalo de tiempo entre dos eventos consecutivos, y el tiempo de censura (CT del
inglés censoring time), el tiempo entre el evento más reciente en el catálogo y el fin del
catálogo en sí (Faenza and Marzocchi, 2010). Estos son combinados con otras
informaciones, o covariables, las cuales están relacionadas con los RVs a través de una
función de riesgo λ(t;z): ���; =� = � ���exp�Ζ�� (2.4.21)
donde λ0(t) es una función de riesgo de referencia no especificada, z es el vector
covariable y β es un vector columna que proporciona el peso de cada covariable.
La firma temporal es contenida en λ0(t) mientras exp(z,β) lleva información sobre
los otros procesos (Faenza and Marzocchi, 2010).
Destacar que λ0(t) es independiente de z en la ecuación de arriba, implicando una
simple relación escalar entre ellos. También, como muchos de los modelos de
sismicidad arreglados, se asume que la sismicidad pasada es una buena representación
de la sismicidad futura. Los coeficiente en λ0(t) y β son estimados a través de una
estrategia de estimación de probabilidad máxima (Faenza, 2005).
La evaluación de la función de riesgo está basada en la función de supervivencia
empírica. Para la función de riesgo de terremotos anterior, esta es su fórmula:
F��; =� = exp (−J � ���exp�Ζ��N�G , = F ���¢�£�µ¶� (2.4.21)
Comparando la función de supervivencia de arriba con la función de supervivencia
de un proceso de Poisson, es posible determinar con precisión resultados de un
proceso de Poisson, o agrupamiento en datos (Faenza and Marzocchi, 2010; Faenza et
al., 2003; Kalbeisch and Prentice, 1980).
Una vez un conjunto de ubicaciones es elegido, ya sea en una cuadrícula o para un
conjunto de subregiones tectónicas, el IETs y una CT son calculadas para cada
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 53
localización, en relación con el tiempo transcurrido desde el evento más reciente. El
vector z para una cuadrícula es entonces un vector bidimensional que comprende el
logaritmo de la tasa de ocurrencia y la magnitud de cada evento. Puede ser también
cada vez discretizado basado en subregiones (Cinti et al., 2004; Faenza and Marzocchi,
2010; Faenza et al., 2003). Estudios en Italia usando estas dos discretizaciones
determinaron que sólo la tasa de ocurrencia es significativamente diferente de cero,
sugiriendo que, para aquellos parámetros probados, la tasa de ocurrencia aparece
para ser la única covariable importante en el modelado de la distribución espacio-
temporal de terremotos moderados a grandes (Faenza and Marzocchi, 2010).
La probabilidad de un evento en cualquier localización z, para derivar un mapa de
predicción sobre un periodo de tiempo dado es entonces
·��; Δ%; z� = P�G;º�HP�G�§»;¼�P�G;º� (2.4.22)
donde Δτ es el tiempo predicho, t es el tiempo desde el último evento (CT), y S(t;z)
es la función de supervivencia (Faenza and Marzocchi, 2010).
Una predicción en marcha para terremotos M≥5.5 en Italia puede encontrarse en
http://earthquake.bo.ingv.it. En curso desde 2.005, la predicción es actualizada cada 1
de enero y después de cada ocurrencia del evento objetivo. Aunque no probabas
específicamente ni contra una hipótesis nula aleatoria ni agrupada, la predicción se
lleva a cabo bien para el terremoto de L'Aquila de M6.2 de 2.009 (Pondrelli et al.,
2010), y para los eventos M5.6 subsecuentes.
Modelos de predicción CSEP de cinco a diez años fueron creados para Italia
usando PHM, y pueden verse en (Faenza andMarzocchi, 2010). Observar la región de
mayor riesgo asociado con la localización del terremoto de L'Aquila de 2009. Esto
ilustra una de las preguntas abiertas asociadas con predicciones basadas en sismicidad
en general y con métodos de sismicidad arreglados en particular. Grandes eventos que
ocurren en el periodo de prueba de predicción normalmente dan como resultado una
señal significativa y persistente en la predicción resultante. Estas pueden ser señales
válidas, una representación de riesgos más altos asociados con réplicas potenciales,
pero podría también ser subestimado o afectar a la estimación relativa de otros riesgos
sísmicos regionales.
2.5 Conclusiones
Los recientes desarrollos en los campos de sismología estadística, en conjunción
con la disponibilidad de gran cantidad de datos sísmicos en pequeñas escalas y avances
computacionales, han mejorado significativamente nuestro entendimiento de los
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 54
procesos de terremotos dependientes del tiempo. Como resultado, los últimos diez
años han visto progresos significativos en el campo de la predicción de terremotos
basados en sismicidad a corto y medio plazo. Estas técnicas de predicción basadas en
sismicidad pueden ser diferenciadas de modelos basados en técnicas para identificar
procesos físicos particulares y de aquellos que filtran o arreglan la sismicidad.
Tales filtros están normalmente, aunque no siempre, basados en relaciones
sísmicas bien caracterizadas tales como la ley de Omori modificada. Exploraciones de
la principal diferencia entre estas dos clases de modelos reflejan su mayor fuerza y
debilidad. Mientras los modelos físicos generalmente tienen el potencial de
proporcionar más detalles en espacio y tiempo, la base para sus éxitos y fallos es
normalmente oscurecido por las simple estimaciones del modelo y las complicadas
interacciones que existen en el mundo real.
Por otra parte, mientras que los patrones de predicción y los éxitos o fracasos que
resultan son mejor entendidos en los modelos suavizados, la variación en el patrón
espacial resultante por los diferentes filtros es relativamente pequeña.
El progreso en la precisión y evaluación en las predicciones de terremotos basados
en sismicidad sobre los últimos 10 años ha llegado hasta el consenso general de que
proporcionan los caminos más prometedores para predicciones de terremotos
operacionales viables (ver por ejemplo Jordan and Jones, 2010). Técnicas de
evaluación actuales incluyen tests específicamente formulados para técnicas de
predicción binaria, así como aquellas que automáticamente generan ámbitos
probabilísticos, tales como modelos de sismicidad arreglados (www.cseptesting.org).
Además, muchos progresos han sido hechos en la modificación de un gran número de
métodos, tales como M8, para producir ámbitos de probabilidad. Sin embargo, otro
gran número de técnicas no son evaluadas regularmente, creando una importante y
potencial diferencia en nuestra habilidad de cuantificar la ganancia de probabilidad
asociada con esos métodos, pero también evitando ideas potenciales en el mecanismo
y comportamientos que afectan a la predicción de terremotos.
Aún quedan por hacer trabajos importantes, no solo en la evaluación de varios
métodos ya formulados para pruebas, sino también en determinar cuáles son los
periodos de tiempo de predicción óptimos y las precisiones para varios propósitos de
predicción, y que nivel de ganancia de probabilidad es razonable y probable para las
regiones espaciales y temporales de interés. Está claro que una diferencia existe entre
predicciones que rinde bien en el orden de días a semanas (modelos de predicción de
réplicas) y aquellos que rinden bien sobre periodos de tiempo de cinco a diez años. La
pregunta sigue siendo si predicciones fiables son posibles para periodos de tiempo de
uno a dos años. Además ha habido relativamente pequeña colaboración alrededor de
varios métodos que intenta tomar ventaja de la información científica y practica
ganada desde su evaluación en curso. Acuerdos sobre la hipótesis nula agrupada más
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 55
aplicable podrían avanzar en este objetivo, cambiando el fin de comparaciones entre
modelos a evaluaciones contra un estándar.
Ambos tipos de predicciones basadas en sismicidad están limitadas por la calidad
de los datos y el relativamente corto periodo de tiempo disponible para el catálogo
instrumental, subrayando la importancia de catálogos instrumentales de buena calidad
derivados de redes sísmicas densas. Errores de falta de información en los catálogos
dan como resultado grandes errores en la predicción resultante, particularmente para
grandes eventos, que tienen escasas estadísticas. Además, a diferencia de algunos
modelos físicos, los modelos sísmicos arreglados no pueden contar para regiones que
han estado inactivas en la historia reciente pero que podrían contener significativos
terremotos potenciales en escalas de tiempo más prolongadas. Quizás tan importante
como el pequeño número de grandes eventos que ocurrirán o bien en una región o
por todo el mundo en un periodo de tiempo próximo de treinta a cincuenta años,
mucho menos en cinco o diez años, es hacer evaluaciones estadísticas definitivas de
todas estas técnicas extremadamente difícil actualmente. Como resultado, estándares
para rechazar hipótesis están todavía bajo discusión. Esto sirve para enfatizar la
importancia de entender las varias escalas de tiempo asociadas con el proceso natural
de terremotos y el hecho de que periodos de observación más prolongados serán
necesarios para evaluar apropiadamente la viabilidad y eficacia de ambos tipos de
modelos de predicción.
Un gran número de visiones importantes e interesantes se pueden extraer de una
exploración más minuciosa de las varias técnicas y su implementación.
Primero, muchas técnicas se centran principalmente en fenómenos particulares
como precursores específicos, y sin embargo, a menudo llegan a similares conclusiones
con respecto a la localización y el tiempo que las de eventos particulares. Por ejemplo,
un gran número de estudios identifican escalas de tiempo a corto plazo para
activaciones e inactividades precursoras alternativas del orden de varios años (ver por
ejemplo, Evison and Rhoades, 2002; Huang, 2004; Kossobokov, 2006a, 2006b; Tiampo
et al., 2006a,b) . Es más probable que en el futuro, observaciones más minuciosas y
comparaciones de varias técnicas proporcionen información importante de los
procesos subyacentes que identifican la física asociada.
En segundo lugar, la mayoría de las metodologías actuales se formulan de modo
pueden ser actualizadas para tener en cuenta la naturaleza cambiante del sistema de
fallas de terremotos. El desarrollo de técnicas de predicción de terremotos
dependientes del tiempo es una respuesta al reconocimiento de que el ámbito de
tensión de evolución en un sistema de falla regional es la fuerza motriz detrás de un
sistema dinámico, si es lento. Como tal, la sismicidad de magnitud pequeña y mediana
está proporcionando información importante en la evolución temporal y espacial en el
ámbito de tensión local y regional. Las técnicas de predicción basadas en sismicidad,
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 56
incluso aquellas que son independientes del tiempo (por ejemplo, Kagan et al., 2007)
permiten actualizaciones regulares tanto para sus predicciones como para
predicciones revisadas después de la ocurrencia de grandes eventos, teóricamente la
captura de la dinámica del sistema. Trabajos futuros probablemente incluirán análisis
detallado de esta evolución temporal y visiones importantes en la física de sistemas así
como mayores avances en predicciones de terremotos a corto y medio plazo.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 57
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 58
Capítulo 3 . Descubrimiento de conocimiento a partir de grandes bases de datos (KDD).
3.1 Introducción
La revolución de la información global en la sociedad en la que vivimos ha
producido que se generen gran cantidad de datos a gran velocidad, creándose una
necesidad de aumento de las capacidades de almacenamiento que no pueden
resolverse por métodos manuales. En las últimas décadas la principal preocupación se
ha centrado en cómo tratar la información disponible de la forma más rápida y
eficiente Se hace entonces necesario encontrar técnicas y herramientas que ayuden
en el análisis de dichas cantidades de datos, que se encuentran normalmente
infrautilizadas, ya que dicho volumen excede nuestra habilidad para reducir y analizar
los datos sin el uso de técnicas de análisis automatizadas.
La minería de datos (o data mining en su terminología inglesa) es una de las
técnicas que más se usan actualmente y que surgió como solución a este problema. Su
misión no es otra que la de analizar la información de las bases de datos. Apoyándose
en distintas disciplinas como la estadística, los sistemas para tomas de decisión o el
aprendizaje automático entre otros, permite extraer patrones, describir tendencias o
predecir comportamientos.
La minería de datos en resumen, no es más que una de las etapas más
importantes del descubrimiento de la información en bases de datos (KDD o
Knowdledge discovery in databases), entendiendo por descubrimiento la existencia de
información valiosa escondida y no conocida anteriormente. Definido en varias fases,
este proceso se puede entender entonces como el proceso completo de extracción de
información, que se encarga así mismo de la preparación de los datos y de la
interpretación de los resultados obtenidos.
En otras palabras, KDD se ha definido como “el proceso no trivial de identificación
en los datos de patrones válidos, nuevos, potencialmente útiles, finalmente
comprensibles” (Fayyad, U. et al., 1996)
El proceso de KDD incorpora distintas técnicas del aprendizaje automático, las
bases de datos, la estadística, la inteligencia artificial así como diversas áreas de la
informática y de la información en general.
Una de las causas que ha hecho que la minería de datos alcance gran popularidad
ha sido la difusión de herramientas y paquetes que implementan estas técnicas, tales
como MicroStrategy, Intelligent Miner de IBM o DM Suite (Darwin) de Oracle, siendo
conocidas como herramientas de Business Intelligence (BI).
Estos paquetes integrados o suites de BI los podemos definir como una colección
de herramientas y técnicas para la gestión de datos, análisis y sistemas de soporte a la
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 59
decisión o, de forma más amplia, como la combinación de arquitecturas, bases de
datos, herramientas de análisis, aplicaciones y metodologías para la recopilación,
almacenamiento, análisis, y acceso a los datos para mejorar el rendimiento del negocio
y ayudar a la toma de decisiones estratégicas.
La diversidad de disciplinas que contribuyen a la minería de datos da lugar a una
gran variedad de sistemas específicos para analizar los tipos de datos que se desean.
Teniendo en cuenta el modelo de datos que generan, los que minan, y la técnica o el
tipo de aplicación, se puede distinguir, citando a Hernández Orallo, (Hernández Orallo.
J. (2004))los siguientes tipos:
1. Tipo de base de dato minada. Partiendo de diferentes modelos de datos,
existen sistemas de minerías de datos relacionados y multidimensionales,
entre otros. De igual forma, teniendo en cuenta los tipos de datos usados
se producen sistemas textuales, multimedia, espaciales o web.
2. Tipo de conocimiento minado. Teniendo en cuenta los niveles de
abstracción del conocimiento minado se distinguen:
• Conocimiento generalizado con alto nivel de abstracción.
• Conocimiento a nivel primitivo, con filas de datos.
• Conocimiento a múltiples niveles, de abstracción.
Además, se debe hacer la distinción entre los sistemas que buscan patrones, es
decir, regularidades, y los que buscan excepciones, irregularidades.
1. Tipo de funcionalidad (clasificación, agrupamiento) y de técnica, es decir,
métodos de análisis de los datos empleados.
2. Tipo de aplicación. En el que distinguimos dos tipos: los de propósito
general y los específicos. Sin pretender ser exhaustivos, se exponen
seguidamente algunos ejemplos de aplicaciones.
• Medicina, básicamente para encontrar la probabilidad de una
respuesta satisfactoria a un tratamiento médico o la detección de
pacientes con riesgo de sufrir alguna patología (detección de
carcinomas, pólipos...).
• Mercadotecnia. Análisis de mercado, identificación de clientes
asociados a determinados productos, evaluaciones de campañas
publicitarias, estimaciones de costes o selección de empleados.
• Manufacturas e industria: detección de fallas.
• Telecomunicaciones. Determinación de niveles de audiencia, detección
de fraudes, etc.
• Finanzas. Análisis de riesgos bancarios, determinación de gasto por
parte de los clientes, inversiones en bolsa y banca etc.
• Climatología. Predicción de tormentas o de incendios forestales.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 60
• Comunicación. Análisis de niveles de audiencia y programación en los
mass media
• Hacienda. Detección de fraude fiscal
• Política. Diseño de campañas electorales, de la propaganda política,de
intención de voto, etc.
Como se viene comentando desde el principio del capítulo, los datos tal y como se
almacenan no suelen proporcionar beneficios directos. Su valor real reside en la
información que se pueda extraer de ellos, información que ayude a tomar decisiones
o a mejorar la comprensión de algún fenómeno que nos rodea.
En el caso que nos ocupa, la minería de datos es solo una fase de este proceso
más amplio cuya finalidad no es otra que el descubrimiento de conocimiento en bases
de datos (KDD). Con independencia de la técnica que se siga durante el proceso de
extracción de datos, los pasos a seguir son siempre los mismos:
1. Adquisición de datos
2. Preprocesamiento y transformación
3. Minería de datos
4. Evaluación
5. Interpretación
A continuación se detallan cada uno de estos pasos.
3.2 Adquisición de datos
En el proceso de minería de datos es muy importante comprender el dominio del
problema, por lo que resulta un paso clave definir claramente lo que se intenta
abordar. Se podría definir como la fase 0.
En un segundo momento se debe seleccionar el conjunto de datos sobre el que se
desea extraer información. Es decir, se localizan las fuentes de información y los datos
obtenidos se llevan a un formato común para poder trabajar de manera más adecuada
con ellos. Frecuentemente los datos necesarios para realizar un proceso de KDD
pertenecen a distintos departamentos u organizaciones, o incluso es posible que haya
que buscar datos complementarios de informaciones oficiales. Por tanto, es
recomendable y conveniente utilizar algún método automatizado para explorar dichos
datos.
Se podría resumir entonces esta fase como una etapa de comprensión de los
datos con una colección de datos inicial y realización de actividades para familiarizarse
con ellos. De esta forma se podrá identificar más fácilmente problemas de calidad para
descubrir las características de los datos. Así mismo, se podrá detectar subconjuntos
para realizar las primeras hipótesis sobre la información oculta.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 61
Entre las tareas que se realizan podemos distinguir:
• Selección: de tablas, de atributos, registros y/o fuentes con las que
comenzar a trabajar.
• Estudiar los datos: el mundo que nos rodea consiste de objetos que
percibimos y lo que interesa es descubrir las relaciones entre los objetos.
Los objetos en sí tienen unas características que son las que se van a
analizar.
• Establecer los metadatos que serán más tarde utilizados.
• Establecer el tipo de variables: Generalmente se ha hecho la distinción en
cuantitativas o cualitativas. Las cuantitativas a su vez, se distinguen en
discretas (por ejemplo, el número de empleados de una empresa) o
continuas (como el sueldo, días de vacaciones…). Mientras que las
cualitativas se distinguen entre nominales (nombran el objeto al que se
refieren, como el estado civil, género…) u ordinales (se puede establecer
un orden en sus valores, como alto, medio o bajo)
• Establecer la caducidad de cada dato, es decir, la vida de las variables, ya
que las medidas tienen un periodo de caducidad y se toman en unas
circunstancias.
3.3 Preprocesamiento y transformación
En este apartado se detalla la fase de preparación de los datos así como su
trasformación.
En esta etapa del KDD se engloban todas las actividades de construcción del
conjunto final de datos, los cuales servirán como datos de entrada en los futuros
algoritmos de minería de datos, desde el conjunto inicial de los datos.
Existe la posibilidad de que estas actividades se deban realizar múltiples veces y
sin un orden determinado.
Las tareas más importantes a realizar durante esta etapa son:
• Transformación de datos
• Limpieza de datos
El primer paso que hay que seguir dentro de esta fase es asegurar la calidad de los
datos, ya que estos pueden contener valores atípicos (outliers) o valores nulos. La
recolección y registro de los datos existentes no se hizo siguiendo un formato
concreto, y menos aún fueron recogidos para tareas de minería de datos. Es por ello
que suelen caracterizarse por ser datos pobres y/o inconsistentes, que en muchas
ocasiones, y como se ha comentado anteriormente, provienen de numerosas fuentes y
diversos sistemas, cada uno de ellos con su propio tipo de datos y su propia forma de
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 62
tratarlos. Lo cual, en posteriores análisis de minería de datos, podría llevar a
formulación de modelos erróneos y/o muy sesgados.
Se antoja entonces fundamental, realizar dos funciones básicas:
1. Revisión de los datos: debido a la gran cantidad de datos que pueden
formar el dominio del problema, se suelen utilizar métodos estadísticos y
de visualización que permitirán más fácilmente identificar aquellos valores
no deseados. Si se trata de variables categóricas, las técnicas más utilizadas
para localizar dichos valores son la distribución de variables, histogramas o
gráficas circulares.
Mientras, para variables cualitativas, se aconseja el uso de media, varianza,
moda, diagrama de dispersión o diagrama de cajas
2. Tratamientos de valores nulos e información incompleta: los datos más
importantes a tratar son los valores atípicos (outliers) y los valores nulos. El
tratamiento de los primeros dependerá de su naturaleza y se podrán
eliminar, si se considera necesario, del proceso de carga en el data
warehouse. Para el tratamiento de los valores nulos, no existe una técnica
perfecta, aunque las directrices mínimas que deben seguirse son eliminar
las observaciones con nulos, así como eliminar las variables con muchos
nulos y utilizar un modelo predictivo para ello.
Una vez realizada esto, se conseguirá una visión integrada, consistente y
consolidada de los datos.
Toda vez que los datos han sido tratados, hay que refinarlos para que cumplan los
requisitos de entrada de los futuros algoritmos, para ello se deberá llevar a cabo tareas
de conversión de variables, reducción o adición de las mismas y una discretización o
generalización, dependiendo del conjunto de datos tratado.
3.4 Minería de datos
En este apartado se detallara más en profundidad acerca de la minería de datos y
en la técnica usada para este trabajo, clustering.
Al ser la minería de datos una técnica novedosa y cuyo concepto no resulta fácil de
declarar, no existe una única definición sobre esta. Como muestra, se exponen a
continuación algunas de las más conocidas:
• Definición 1. Es el proceso no trivial de descubrir patrones válidos, nuevos,
potencialmente útiles y comprensibles dentro de un conjunto de datos,
Piatetski-Shapiro G., Frawley W. J., and Matheus C. J. (1991).
• Definición 2. Es la aplicación de algoritmos específicos para extraer
patrones de datos,Fayyad U. M., Piatetski-Shapiro G., and Smith P. (1996),
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 63
entendiendo por datos un conjunto de hechos y por patrones una
expresión en algún lenguaje que describe un subconjunto de datos,
siempre que sea más sencilla que la simple enumeración de todos los
hechos que componen.
• Definición 3. Es la integración de un conjunto de áreas que tienen como
propósito la identificación de un conocimiento obtenido a partir de las
bases de datos que aporten un sesgo hacia la toma de decisión, Grossman
R. L., Hornik M. F., and Meyer G. (2004).
• Definición 4. Es el proceso de descubrimiento de conocimiento sobre
repositorios de datos complejos mediante la extracción oculta y
potencialmente útil en forma de patrones globales y relaciones
estructurales implícitas entre datos,Kopanakis I. and Theodoulidis B.
(2003).
• Definición 5. El proceso de extraer conocimiento útil y comprensible,
previamente desconocido, desde grandes cantidades de datos
almacenados en distintos formatos,Witten H. and Frank E. (2005).
• Definición 6. La tarea fundamental de la minería de datos es encontrar
modelos inteligibles a partir de los datos,Hernández Orallo J., (2004).
En síntesis, Los objetivos que persigue la minería de datos se pueden resumir de
esta manera:
1. Identificación de patrones significativos o relevantes
2. Procesamiento automático de grandes cantidades de datos
3. Presentación de los patrones como conocimiento adecuado para satisfacer
los objetivos del usuario
Cabe mencionar en este apartado que algunos autores distinguen dos tipos de
minería de datos,Fayyad U. M., Piatetski-Shapiro G., and Smith P. (1996).
1. Mdp o minería de datos predictiva. En otras palabras, predicción de datos,
básicamente técnicas estadísticas. La clasificación y la regresión son las
tares de datos que producen modelos predictivos.
• Clasificación. Es la más usada. Cada registro de la base de datos
pertenece a una determinada clase o etiqueta discreta, que se indica
mediante el valor de un atributo o clase de la instancia. El objetivo no
es otro que predecir una clase, dados los valores de los atributos.
Árboles de decisión, sistemas de reglas o análisis de discriminantes son
algunos ejemplos. También podemos encontrar variantes de la tarea de
clasificación como rankings, aprendizaje de preferencias, etc…
• Regresión o estimación. Es el aprendizaje de una función real que
asigna a cada instancia un valor real de tipo numérico. El objetivo es
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 64
inducir un modelo para poder predecir el valor de la clase dados los
valores de los atributos. Se usan, por ejemplo, árboles de regresión,
redes neuronales artificiales, regresión lineal, etc.
2. Mddc o minería de datos para el descubrimiento del conocimiento, usando
básicamente técnicas de ingeniería artificial. Las tareas que producen
modelos descriptivos son el agrupamiento (clustering), las reglas de
asociación secuenciales y el análisis correlacional, como se verá más
delante.
• Clustering o agrupamiento. Técnica descrita en este trabajo. Consiste
en la obtención de grupos, que tienen los elementos similares, a partir
de los datos. Estos elementos u objetos similares de un grupo son muy
diferentes a los objetos de otro grupo. Esta técnica de estudio por
agrupamiento fue ya utilizada a principios del siglo XX en otras áreas
lingüísticas, como la Semántica. Formando campos semánticos se
estudia el léxico de un idioma con sus particularidades.
• Reglas de asociación. Su objetivo es identificar relaciones no explícitas
entre atributos categóricos. Una de las variantes de reglas de
asociación es la secuencial, que usa secuencias de datos.
• Análisis correlacional. Utilizada para comprobar el grado de similitud de
los valores de dos variables numéricas.
El proceso de minería de datos cuenta con una serie de ventajas que se pueden
sintetizar en las siguientes:
• Proporciona poder de decisión a los usuarios y es capaz de medir las
acciones y resultados de la mejor manera.
• Contribuye a la toma de decisiones tácticas y estratégicas.
• Supone un ahorro económico a las empresas y abre nuevas posibilidades
de negocio.
• Es capaz de generar modelos prescriptivos y descriptivos.
Nos centraremos ahora en la técnica usada para este trabajo, clustering, como se
ha mencionado en apartados anteriores.
Clustering no es más que agrupar un conjunto de objetos abstractos o físicos en
clases similares. Por lo tanto un clúster se puede definir como una colección de datos
parecidos entre ellos y diferentes de los datos que pertenecen a otro clúster. Así
mismo, un clúster de datos puede ser tratado colectivamente como un único grupo.
Sabiendo esto, las técnicas de clustering se pueden definir como técnicas de
clasificación no supervisada de patrones en conjuntos denominados clúster.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 65
Aunque el problema de clustering ha sido planteado por una gran cantidad de
disciplinas y es aplicable a también gran número de contextos, sigue siendo un
problema complejo y su desarrollo es más lento que el esperado.
Se pasará ahora a ofrecer una visión global de los distintos métodos de clustering
así como las distintas aplicaciones de conceptos relacionados con este entorno.
El análisis de clúster es una importante actividad humana. Ya desde temprana
edad, el ser humano aprende a distinguir entre hombre y mujer, o entre oriental u
occidental, mediante una mejora continua de los esquemas de clasificación.
Las técnicas de clustering han sido ampliamente utilizadas en múltiples
aplicaciones tales como reconocimiento de patrones, análisis de datos, procesado de
imágenes o estudios de mercado. Gracias al clustering se pueden identificar regiones
tanto pobladas como dispersas y, por consiguiente, descubrir patrones de distribución
general y correlaciones interesantes entre los atributos de los datos. En el área de los
negocios, el clustering puede ayudar a descubrir distintos grupos en los hábitos de sus
clientes y así, caracterizarlo en grupos basados en patrones de compra. En el ámbito
de la biología puede utilizarse, por ejemplo, para derivar taxonomías animales y
vegetales o descubrir genes con funcionalidades similares.
De igual manera, el clustering puede ayudar a identificar áreas en las que la
composición de la tierra se parece y, más concretamente, en teledetección se pueden
detectar zonas quemadas, superpobladas o desérticas. En internet se puede utilizar
para clasificar documentos y descubrir información relevante de ellos.
El análisis de clústeres se puede usar para hacerse una idea de la distribución de
los datos, para observar las características de cada clúster y para centrarse en un
conjunto particular de datos para futuros análisis.
El clustering de datos es una disciplina científica que cuenta con multitud de
estudios y artículos en diferentes ámbitos. Debido a la enorme cantidad de datos
contenidos en las bases de datos, el clustering se ha convertido en un tema muy activo
en las investigaciones de la minería de datos. Como rama de la estadística, el análisis
de clústeres ha sido objeto de estudio durante muchos años, centrándose
principalmente en los las técnicas basadas en la medida de distancias.
En lo referente al aprendizaje automático, el clustering suele venir referido como
aprendizaje no supervisado.
A diferencia de la clasificación, el clustering no depende de clases previamente
definidas ni en ejemplos de entrenamientos etiquetados a priori. Por esta razón, se
trata de una forma de aprendizaje por observación en vez de aprendizaje por
ejemplos. En el clustering conceptual un grupo de objetos forma una clase sólo si
puede ser descrito mediante un concepto.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 66
El clustering conceptual consiste en dos componentes:
1. Descubre las clases apropiadas.
2. Forma descripciones para cada clase, tal y como sucede en la clasificación.
El clustering es, hoy en día, un campo de investigación en el que sus aplicaciones
potenciales plantean sus propios requerimientos específicos. Dichos requerimientos se
pueden resumir en:
1. Escalabilidad. Aplicar clustering sobre una muestra de una gran base de
datos dada puede arrojar resultados parciales. El reto está en desarrollar
algoritmos de clustering que sean altamente escalables en grandes bases
de datos.
2. Capacidad para tratar con diferentes tipos de atributos. Muchos algoritmos
se diseñan para clústeres de datos numéricos. Sin embargo, multitud de
aplicaciones pueden requerir clústeres de otro.
3. Descubrir clústeres de forma arbitraria. Muchos algoritmos de clustering
determinan clústeres basándose en medidas de distancia de Manhattan o
euclídeas. Tales algoritmos tienden a encontrar clústeres esféricos con
tamaños y densidades similares. Sin embargo, un clúster puede tener
cualquier tipo de forma. Es por ello que es importante desarrollar
algoritmos capaces de detectar clústeres de forma arbitraria.
4. Requisitos mínimos para determinar los parámetros de entrada. Muchos
algoritmos requieren que los usuarios introduzcan ciertos parámetros en el
análisis de clústeres (como puede ser el número de clústeres deseado).El
clustering es muy sensible a dichos parámetros. Este hecho no sólo
preocupa a los usuarios sino que también hace que la calidad del clustering
sea difícil de controlar.
5. Capacidad para enfrentarse a datos ruidosos. La mayor parte de las bases
de datos reales contienen datos de tipo outliers o datos ausentes,
desconocidos o erróneos. Algunos algoritmos de clustering son sensibles a
este tipo de datos lo que puede acarrear una baja calidad en los clústeres
obtenidos.
6. Insensibilidad al orden de los registros de entrada. Determinados
algoritmos son sensibles al orden de los datos de entrada, pudiendo el
mismo conjunto de datos presentados en diferente orden generar
clústeres extremadamente diferentes. Se hace necesario desarrollar
algoritmos que sean insensibles al orden de la entrada.
7. Alta dimensionalidad. Una base de datos puede contener varias
dimensiones o atributos. Muchos algoritmos de clustering son buenos
cuando manejan datos de baja dimensión (dos o tres dimensiones). El ojo
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 67
humano es adecuado para medir la calidad del clustering hasta tres
dimensiones.
Es un reto agrupar objetos en un espacio de alta dimensión, especialmente
considerando que en dicho espacio los datos pueden estar altamente
esparcidos y distorsionados.
8. Clustering basado en restricciones. Las aplicaciones del mundo real pueden
necesitar realizar clustering bajo ciertos tipos de restricciones.
9. Interpretabilidad y usabilidad. Los usuarios esperan que los resultados
proporcionados por el clustering sean interpretables, comprensibles y
útiles. Esto es, el clustering puede necesitar ser relacionado con
interpretaciones semánticas específicas. Así, es importante estudiar cómo
el objetivo buscado por una aplicación puede influir en la selección de los
métodos de clustering.
Dados los requerimientos anteriormente mencionados, el estudio del análisis de
clústeres se hará como sigue.
• En primer lugar se estudian los diferentes tipos de datos y cómo pueden
influir los métodos de clustering.
• En segunda instancia se presentan una categorización general de los
anteriormente citados métodos.
• Posteriormente se estudiará cada método en detalle, incluyendo los
métodos de particionado, jerárquico, basados en densidad, basados en
rejilla, y basados en modelos.
Los pasos de una tarea de clustering típica se pueden resumir en los cinco
siguientes, A. K. Jain and R. C. Dubes (1988), divididos por los que realizan el
agrupamiento de los datos en clústeres frente a los que se refieren a la utilización de la
salida.
Agrupamiento de los datos:
1. Representación del patrón (opcionalmente incluyendo características de la
extracción y/o selección).
2. Definición de una medida de la proximidad de patrones apropiada para el
dominio de los datos.
3. Clustering propiamente dicho (agrupamiento de los patrones).
Utilización de la salida:
4. Abstracción de los datos (si es necesario).
5. Evaluación de la salida (si es necesario).
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 68
La representación del patrón se refiere al número de clases, el número de
patrones disponible, y el número, tipo, y escala de las características disponibles para
el algoritmo de clustering. La selección de características es el proceso de identificar el
subconjunto más apropiado de características dentro del conjunto original para
utilizarlo en el proceso de agrupamiento. La extracción de características es el uso de
una o más transformaciones de las características de la entrada para producir nuevas
características de salida. La proximidad de patrones se mide generalmente según una
función de distancia definida para pares de patrones. Existen gran variedad de
funciones de distancias que han sido utilizadas por diversos autores y que serán
descritas más adelante.
El paso de agrupamiento o clustering propiamente dicho puede ser realizado de
diversas formas. El clustering de salida puede ser hard (duro) o fuzzy (difuso).
El primero realiza una partición de los datos en grupos y en el segundo cada
patrón tiene un grado variable de calidad en cada uno de los clústeres de salida. Los
algoritmos de clustering jerárquicos son una serie jerarquizada de particiones basadas
en un criterio de combinación o división de clústeres según su semejanza. Los
algoritmos de clustering particionales identifican la partición que optimiza un criterio
de agrupamiento. Todas las técnicas se detallarán más adelante.
Es difícil evaluar si la salida de un algoritmo de clustering ha obtenido clústeres
válidos o útiles para el contexto concreto en el que se aplica. Hay que tener en cuenta
la cantidad y calidad de recursos de que se dispone, así como las restricciones tiempo y
espacio establecidos. Debido a estas razones es posible que haya que realizar un
análisis previo de la información que se desea procesar.
El análisis de validez de clústeres consiste en la evaluación de la salida obtenida
por el algoritmo de clustering. Este análisis utiliza a menudo un criterio específico; sin
embargo, estos criterios llegan a ser generalmente subjetivos. Así, existen pocos
estándares en clustering excepto en subdominios bien predefinidos.
Los análisis de validez deben ser objetivos,Dubes R. C. (1993), y se realizan para
determinar si la salida es significativa. Cuando se utiliza aproximaciones de tipo
estadístico en clustering, la validación se logra aplicando cuidadosamente métodos
estadísticos e hipótesis de prueba. Hay tres tipos de estudios de la validación:
1. La evaluación externa de la validez compara la estructura obtenida con una
estructura a priori.
2. La evaluación interna intenta determinar si una estructura es
intrínsecamente apropiada para los datos.
3. La evaluación relativa compara dos estructuras y mide la calidad relativa de
ambas.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 69
Así, la medida de la distancia es un aspecto clave en multitud de técnicas de
minería de datos. Puesto que la semejanza entre patrones es fundamental a la hora de
definir un clúster, es necesario establecer una forma de medir esta semejanza. La gran
variedad de tipos de atributos hace que la medida (o medidas) de semejanza debe ser
elegida cuidadosamente. Lo más común es calcular el concepto contrario, es decir, la
diferencia o disimilitud entre dos patrones usando la medida de la distancia en un
espacio de características. Existen unos cuantos métodos para definir la distancia entre
objetos. La medida de distancia más popular es la distancia euclídea que se define
como: N�½, ¾� = �|��� − �©�|< + |��< − �©<|< +⋯+ |��� − �©�|< (3.4.1)
donde i = (xi1, xi2, · · · , xip) y j = (xj1, xj2, · · · , xjp) son dos objetos de p dimensiones.
La distancia euclídea nos da una medida intuitiva de la distancia entre dos puntos
en un espacio de dos o tres dimensiones. Esto puede ser útil cuando los clústeres son
compactos,Mao J. and Jain A. (1996).
Otra métrica utilizada es la distancia Manhattan, definida por: N�½, ¾� = |��� − �©�| + |��< − �©<| + ⋯+ |��� − �©�| (3.4.2)
Tanto la distancia euclídea como la distancia Manhattan satisfacen los siguientes
requisitos matemáticos para una función de distancia:
1. d(i, j) >= 0. Esto es, la distancia es un número no negativo.
2. d(i, i) = 0. Es decir, la distancia de un objeto a él mismo es cero.
3. d(i, j) = d(j, i). La distancia es una función simétrica.
4. d(i, j) =<d(i, h) + d(h, j). Se trata de una desigualdad triangular que afirma
que ir directamente desde un punto i hasta un punto j nunca es más largo
que pasando por un punto intermedio h.
Finalmente, la distancia Minkowski es una generalización de las distancias
Manhattan y euclídea. Se define por: N�½, ¾� = �¥��� − �©�¥� + ¥��< − �©<¥� +⋯+ ¥��� − �©�¥���/� (3.4.3)
donde q es un entero positivo. Representa a la distancia Manhattan cuandoq = 1 y a la
euclídea cuando q = 2. El inconveniente que presenta dicha medida de la distancia es
la tendencia de los atributos de mayor magnitud a dominar al resto. Para solucionar
esta desventaja se puede normalizar los valores de los atributos continuos, de forma
que todos tomen valores dentro de un mismo rango. Por otro lado, la correlación entre
los distintos atributos puede influir negativamente en el cálculo de la distancia. Para
dar solución a este problema se usa la distancia cuadrática de Mahalanibis:
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 70
N«��� , �©� = ���, �©�∑ ���, �©�ÀH� (3.4.4)
donde xi y xj son vectores fila y P es la matriz de covarianza de los patrones. La
distancia asigna diferentes pesos a cada característica basándose en la varianza y en la
correlación lineal de los pares. Si a cada variable se le asigna un peso de acuerdo con
su importancia, la nueva distancia euclídea ponderada se puede calcular de la
siguiente manera: N�½, ¾� = �]�|��� − �©�|< +]<|��< − �©<|< +⋯+]�|��� − �©�|< (3.4.5)
Este escalado es también aplicable a las distancias Manhattan y Minkowski.
Las medidas de los coeficientes de similitud o disimilitud pueden ser utilizadas
para evaluar la calidad del clúster. En general la disimilitud d(i, j) es un número positivo
cercano a cero cuando i y j están próximos el uno del otro y se hace grande cuando son
más diferentes.
Las disimilitudes se pueden obtener mediante una simple clasificación subjetiva,
hecha por un grupo de observadores o expertos, de cuánto difieren determinados
objetos unos de otros.
Por ejemplo, en ciencias sociales se puede clasificar lo cercano que un sujeto está
de otro, así como en matemáticas, biología o física.
Alternativamente, las disimilitudes se pueden calcular con coeficientes de
correlación. Dados n objetos para clasificar la correlación producto-momento de
Pearson entre dos variables f y g se define en (3.4.5), donde f y g son variables que
describen los objetos, mf y mg son los valores medios de f y g respectivamente y xif es
el valor de f para el objeto i−ésimo, equivalentemente xig es el valor de g para el objeto
i−ésimo.
��^, _� = ∑ �Q+ÁHÁ��Q+®H®�Â+CD�∑ �Q+ÁHÁ�pÂ+CD �∑ �Q+®H®�pÂ+CD (3.4.6)
La fórmula de conversión (3.4.6) se usa para calcular los coeficientes de disimilitud
d(f, g) tanto para coeficientes de correlación paramétricos como para coeficientes de
correlación no paramétricos.
N�^, _� = �H�,�< (3.4.7)
El tener variables con valores de correlación altos y positivos implica que el
coeficiente de disimilitud está cercano a cero. Por el contrario, aquellas variables que
tengan una correlación alta negativa tendrán un coeficiente de disimilitud cercano a
uno, es decir, las variables son muy diferentes.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 71
En determinadas aplicaciones los usuarios pueden preferir usar la fórmula de
conversión (3.4.7) donde las variables con valores de correlación altos (tanto positivos
como negativos) tienen asignadas el mismo valor de similitud.
d(f, g) = 1− | R(f, g) | (3.4.8)
Igualmente, hay quien puede querer usar coeficientes de similitud s(i, j) en vez del
coeficiente de disimilitud. La fórmula (3.4.8) puede usarse para relacionar ambos
coeficientes.
s(i, j) = 1 − d(i, j) (3.4.9)
Nótese que no todas las variables deberían estar incluidas en el análisis de
clustering.
Incluir una variable que no aporte significado a un clustering dado puede hacer
que la información útil proporcionada por otras variables quede enmascarada.
Por ejemplo, en el caso de que se quisiera hacer clustering de un grupo de
personas de acuerdo con sus características físicas, incluir el atributo número de
teléfono resultaría altamente ineficiente y, por tanto, este tipo de variables basura
deben se excluidas del proceso de clustering.
A continuación se expone los tipos de datos que aparecen con frecuencia en el
clustering y cómo se preprocesan los mismos. Supóngase que el conjunto de los datos
objetivo contiene n objetos que pueden representar personas, casas, o cualquier otra
variable que pueda imaginar. Los principales algoritmos de clustering basados en
memoria operan normalmente en una de las dos siguientes estructuras de datos.
1. Matriz de datos. Ésta representa n objetos, como pueden ser n personas,
con p variables (también llamadas atributos), como pueden ser edad,
altura o peso. La estructura tiene forma de tabla relacional o de matriz de
dimensión n × p (n objetos por p variables), se muestra en (3.4.10).
Å��� �<< ⋯ ����<� �<< ⋯ �<�⋯ ⋯ ⋱ ⋯�!� �!< ⋯ �!�Ç (3.4.10)
2. Matriz de disimilitud. Almacena la colección de distancias disponibles para
todos los pares de n objetos. Se suele representar como una tabla n × n, tal
y como se muestra a continuación.
Å 0 0 ⋯ 0N�2,1� 0 ⋯ 0⋯ ⋯ ⋱ ⋯N�È, 1� N�È, 2� ⋯ 0 Ç (3.4.11)
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 72
Donde d(i, j) es la distancia medida entre los objetos i y j. Ya que d(i, j) =d(j, i) y que
d(i, i) = 0 tenemos la matriz mostrada en (3.4.11). Las medidas de similitud serán
discutidas en este apartado.
La matriz de datos suele llamarse matriz de dos modos, mientras que la matriz de
disimilitud se llama matriz de un modo ya que las filas y columnas de la primera
representan entidades diferentes, mientras que las de la segunda representan la
misma entidad. Muchos algoritmos de clustering trabajan con la matriz de disimilitud.
Si la entrada se presenta como una matriz de datos, se deben transformar en una
matriz de disimilitud antes de aplicar dichos algoritmos.
Se comentarán a continuación las distintas técnicas de clustering existentes.
Existen un gran número de algoritmos de clustering en la actualidad. La elección
de una técnica u otra dependerá tanto del tipo de datos disponibles como del
propósito de la aplicación. Si se utiliza el análisis de clustering como una herramienta
descriptiva o exploratoria, es posible que se prueben distintos algoritmos sobre los
mismos datos con el fin de ver cuál es el método que mejor se ajusta al problema.
En general, los métodos de clústeres se pueden agrupar en las siguientes
categorías:
1. Métodos particionales. Dada una base de datos con n objetos, un método
particional construye k grupos de los datos, donde cada partición
representa a un clúster y k ≤n. Esto es, clasifica a los datos en k grupos que
satisfacen los siguientes requisitos:
• Cada grupo debe contener, al menos, un elemento.
• Cada elemento debe pertenecer únicamente a un grupo.
Nótese que el segundo requerimiento se relaja en ciertas técnicas
particionales difusas.
Dado k, el número de particiones que se deben construir, los métodos
particionales realizan una partición inicial. A continuación, utilizan una
técnica iterativa de recolocación que intenta mejorar la partición
moviendo los objetos de un grupo a otro. El criterio general para decidir si
una partición es buena es que los objetos pertenecientes al mismo clúster
estén cerca mientras que los objetos pertenecientes a los clústeres
restantes estén lejos de ellos.
Conseguir una optimización global de un clustering basado en particiones
requeriría una enumeración exhaustiva de todas las posibles particiones.
Por el contrario, la mayoría de las aplicaciones adoptan una de las dos
heurísticas más populares:
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 73
• Algoritmo K-means, donde cada clúster se representa por medio de
los objetos en el clúster. Existen algunas variaciones de este
método como el Expectation Maximization.
• Algoritmo K-medianas, donde cada clúster se representa por uno
de los objetos situados cerca del centro del clúster.
Estas heurísticas funcionan bien para bases de datos pequeñas o medianas
que tengan una forma esférica. Para encontrar clústeres con formas más
complejas y en bases de datos más grandes, se debe recurrir a extensiones
de los mismos.
2. Métodos jerárquicos. Estos métodos crean una descomposición jerárquica
del conjunto de datos objeto de estudio. Un método jerárquico puede ser
clasificado como aglomerativo o divisivo:
• Aglomerativo: comienza con cada patrón en un clúster distinto y
combina sucesivamente clústeres próximos hasta un que se satisface
un criterio preestablecido.
• Divisivo: comienza con todos los patrones en un único clúster y se
realizan particiones de éste, creando así nuevos clústeres hasta
satisfacer un criterio predeterminado.
Los métodos jerárquicos presentan un pequeño inconveniente y es que
una vez que un paso se realiza (unión o división de datos), éste no puede
deshacerse. Esta falta de flexibilidad es tanto la clave de su éxito, ya que
arroja un tiempo de computación muy bajo, como su mayor problema
puesto que no es capaz de corregir errores.
Si se usa primero el algoritmo aglomerativo jerárquico y después la
recolocación iterativa se puede sacar más provecho de estas técnicas.
Existen, de hecho, ciertos algoritmos como BIRCH, Zhang T, Ramakrishnan
R., and Livny M. (1996), y CURE,Guha S., Rastogi R., and Shim K. (1998), que
han sido desarrollados basándose en esta solución integrada.
3. Métodos basados en densidad. La mayoría de los métodos particionales
sólo pueden encontrar clústeres de forma esférica. Para paliar este efecto,
se han desarrollado técnicas de clustering basados en la noción de
densidad. La idea subyacente es continuar aumentando el tamaño del
clúster hasta que la densidad (número de objetos o datos) en su vecindad
exceda de un determinado umbral, es decir, para cada dato perteneciente
a un clúster, la vecindad de un radio dado debe contener al menos un
mínimo de número de puntos. Este método se puede usar para eliminar
ruido (outliers) y para descubrir clústeres de forma arbitraria. El DBSCAN es
un método métodos típicamente basado en densidad.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 74
Existen otros tipos de técnicas de clustering, métodos basados en rejilla y métodos
basados en modelos, que dada su escaso peso en las aplicaciones que se estudian en
este documento no serán detallados con profundidad.
Mención aparte merecen los fuzzy (difusos) clustering y su estudio se realiza en
sucesivos apartados.
Se comentará ahora los distintos tipos de algoritmos particionales, como son el
algoritmo K-means (K-medias), el algoritmo Expectation Maximization (EM) y el
algoritmo K-mediods (K-medianas).
• Algoritmo K-means (K-medias)
El algoritmo K-means fue propuesto por MacQueen en el año
1968,MacQueen J. (1968). Este algoritmo coge el parámetro de entrada, k,
y particiona el conjunto de n datos en los k clústeres de tal manera que la
similitud intra-clúster es elevada mientras que la inter-clúster es baja.
Dicha similitud se mide en relación al valor medio de los objetos en el
clúster, lo que puede ser visto como si fuera su centro de gravedad.
El algoritmo procede como sigue. En primer lugar, escoge aleatoriamente k
objetos haciendo que éstos representen el centro del clúster. Cada uno de
los objetos restantes se va asignando al clúster que sea más similar
basándose en la distancia del objeto a la media del clúster. Entonces
computa la nueva media de cada clúster y el proceso sigue iterando hasta
que se consigue la convergencia (se minimiza el error cuadrático medio).
El método es relativamente escalable y eficiente para el procesado de
conjuntos de datos grandes ya que la complejidad computacional del
algoritmo es O(nkt), donde n es el número de objetos, k el número de
clústeres y t el número de iteraciones. Normalmente k << n y t << N,
produciéndose un óptimo local.
El K-means se puede aplicar sólo cuando la media de un clúster puede ser
definida, esto es, no es de aplicación en los casos en que los atributos sean
categóricos. Otro inconveniente es su sensibilidad al ruido y a los outliers.
Además, la necesidad de dar el valor de k a priori resulta uno de sus
mayores puntos débiles.
• Algoritmo Expectation Maximization (EM)
Este algoritmo es una variante del K-means y fue propuesto por Lauritzen
en 1995, MacQueen J. (1995). Se trata de obtener la FDP (función de
densidad de probabilidad) desconocida a la que pertenecen el conjunto
completo de datos. Esta FDP se puede aproximar mediante una
combinación lineal de NC componentes, definidas a falta de una serie de
parámetrosy =∪ y©∀©= 1. . ÌÍ, que son los que hay que averiguar, ·��� = ∑ Ωi��; y©��Ï©�� (3.4.11)
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 75
con ∑ Ω�Ï©�� = 1 (3.4.12)
dondeΩ son las probabilidades a priori de cada clúster cuya suma debe ser
1, que también forman parte de la solución buscada, ·���denota la FDP
arbitraria y i��; y©� la función de densidad del componente j. Cada clúster
se corresponde con las respectivas muestras de datos que pertenecen a
cada una de las densidades que se mezclan. Se pueden estimar FDP de
formas arbitrarias, utilizándose FDP normales n-dimensionales, t-Student,
Bernoulli, Poisson, y log-normales. El ajuste de los parámetros del modelo
requiere alguna medida de su bondad, es decir, cómo de bien encajan los
datos sobre la distribución que los representa. Este valor de bondad se
conoce como el likelihood de los datos. Se trataría entonces de estimar los
parámetros buscados y, maximizando este likelihood (este criterio se
conoce como ML-Maximun Likelihood). Normalmente, lo que se calcula es
el logaritmo de este likelihood, conocido como log-likelihood, ya que es
más fácil de calcular de forma analítica. La solución obtenida es la misma
gracias a la propiedad de monotonicidad del logaritmo. La forma de esta
función log-likelihood es: &�y, Î� = 1�_Π!���Ñ ·��!� (3.4.13)
donde NI es el número de instancias, que suponemos independientes
entre sí.
El algoritmo EM, procede en dos pasos que se repiten de forma iterativa:
1. Expectation. Utiliza los valores de los parámetros iniciales o
proporcionados por el paso Maximization de la iteración anterior,
obteniendo diferentes formas de la FDP buscada.
2. Maximization. Obtiene nuevos valores de los parámetros a partir de
los datos proporcionados por el paso anterior.
Después de una serie de iteraciones, el algoritmo EM tiende a un máximo
local de la función L. Finalmente se obtendrá un conjunto de clústeres que
agrupan el conjunto de proyectos original. Cada uno de estos clúster estará
definido por los parámetros de una distribución normal.
• Algoritmo K-mediods (K-medianas)
Como se comentó anteriormente, el algoritmo K-means es sensible a los
outliers ya que un objeto con un valor extremadamente elevado puede
distorsionar la distribución de los datos. En lugar de coger el valor medio
de los objetos de un clúster como punto de referencia, se podría tomar un
objeto representativo del clúster, llamado mediod, Kaufman L. and
Rousseeuw P. J., (1990), que sería el punto situado más al centro del
clúster.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 76
Así, el método particional puede ser aplicado bajo el principio de minimizar
la suma de las disimilitudes entre cada objeto y con su correspondiente
punto de referencia.
El algoritmo trata, pues, de determinar k particiones para n objetos. Tras
una selección inicial de los kmediods, el algoritmo trata de hacer una
elección mejor de los mediods repetidamente. Para ello analiza todos los
posibles pares de objetos tales que un objeto sea el mediod y el otro no. La
medida de calidad del clustering se calcula para cada una de estas
combinaciones. La mejor opción de puntos en una iteración se escoge
como los mediods para la siguiente iteración.
El coste computacional de cada iteración es deO�k�n −��<�, por lo que
para valores altos de k y n el coste se podría disparar.
El algoritmo K − mediods es más robusto que el K − means frente a la
presencia del ruido y de los outliers ya que la mediana es menos
influenciable por un outlier, u otro valor extremo, que la media. Sin
embargo, su procesado es mucho más costoso y además necesita también
que el usuario le proporcione el valor de k.
3.5 Evaluación
Una vez se ha aplicado la técnica o técnicas de minería de datos elegidas, y se han
obtenido el o los modelos de conocimientos que representan patrones de
comportamiento observados en los valores, es necesario validarlos para comprobar
que las resultados que se obtienen son, efectivamente, válidos y lo suficiente
satisfactorios. En el caso de que sea hayan obtenido más de un modelo se deben
comparar para buscar el que se ajuste mejor al problema.
Si resultara que ninguno de los modelos obtiene los resultados esperados, debe
volverse a alguno de los pasos anteriores y alterarlos para generar nuevos modelos.
Por otra parte, si el modelo final no pasará la evaluación, el proceso se podría
repetirse desde el comienzo o a partir de los pasos anteriores, sopesando el incluir
otros datos, otros algoritmos, otras metas u otras estrategias. Se puede considerar
este paso como crucial, en donde se requiere tener conocimiento del dominio.
De otro lado, si el modelo es validado y resulta ser aceptable, es decir, que
proporciona salidas adecuadas y ofrece márgenes de error admisibles, se puede
entonces considerar listo para su explotación e interpretación.
Pero antes de comenzar con la evaluación del modelo es necesario contar con una
serie de parámetros de calidad.
Nos centraremos en los más usados, contando con los indicadores previos que
necesitamos usar:
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 77
• Verdaderos positivos, TP (del inglés true positive). Es definido como el
número de veces que el clasificador asigna un 1 a la instancia que está
clasificando, y éste, efectivamente, ocurre durante los siguientes cinco
días. (Predice la ocurrencia del evento analizado)
• Verdaderos negativos, TN (del inglés true negative). Se define como el
número de veces que se ha predicho que no ocurrirá el evento analizado
durante los cinco próximos días, y verdaderamente, éste no ocurre.
(Predice la no ocurrencia del evento analizado)
• Falso positivo, FP (del inglés false positive). Es definido como el número de
veces que se detecta de forma errónea que sucederá el evento analizado
en los próximos cinco días. En otras palabras, indica el número de veces
que el clasificador asignó una etiqueta con valor 1 cuando en realidad
debía asignar un 0. (Predice la ocurrencia del evento analizado, y este no
ocurre)
• Falso negativo, FN (del inglés, false negative). Se define como el número de
veces que se ha predicho que no ocurrirá el evento analizado durante los
próximos cinco días, y sin embargo, éste ocurre. (Predice la no ocurrencia
del evento analizado, y en realidad ocurre)
A partir de los indicadores anteriores, se calculan los parámetros de calidad
propiamente dichos. En particular:
• Sensibilidad, S: Se define como la proporción de eventos identificados
correctamente, sobre el total de los mismos, sin tener en cuenta los FP. De
forma matemática se expresa como: S = TP / (TP + FN). Estadísticamente
indica la capacidad del estimador elegido para identificar como casos
positivos los que de verdad lo son, o puede verse también como la
proporción de eventos correctamente identificados.
• Especificidad, E: Es definido como el ratio de negativos identificados de
forma correcta. De forma matemática se expresa como: E= TN / (TN+FP).
Estadísticamente indica la capacidad del estimador para dar como casos
negativos los que realmente lo son, o puede verse también como la
proporción de eventos negativos correctamente identificados.
3.6 Interpretación
Una vez el modelo ha sido validado, se tiene que pasar a interpretar los resultados
obtenidos. Para ello se hace imprescindible tener un buen conocimiento del dominio
tratado y así poder interpretar correctamente los patrones obtenidos, de esta forma
podrá ser traducido y explicado en términos que puedan entender usuarios no
expertos en la materia.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 78
El fin de la interpretación no es más que, en base a los modelos o patrones
conseguidos, llegar a una conclusión que lleve a reafirmar la hipótesis que se tenía o la
desmientan y lleven a otra hipótesis e interpretación de los resultados, para así llegar a
una hipótesis final.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 79
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 80
Capítulo 4 . Reconocimiento de patrones precursores de grandes sismos
En este capítulo se especifican las técnicas anteriormente explicadas, para el caso
concreto de estudio, la extracción de conocimiento y reconocimiento de patrones
precursores de grandes sismos. Concretamente en las cuatro ciudades de Chile
analizadas.
Es importante resaltar que se comentarán las fases de Adquisición de datos,
Preprocesamiento y transformación y minería de datos aplicada, dejando la evaluación
e interpretación para el siguiente capítulo, donde además se muestran los resultados
obtenidos.
4.1 Adquisición de datos
La adquisición de los datos, es el primer paso dentro del proceso KDD, y contar
con el número suficiente para su posterior procesamiento resulta fundamental, como
se ha explicado en el anterior capítulo.
Los datos que se han utilizado para realizar este estudio fueron suministrados por
el Centro Sismológico Nacional de la Universidad de Chile (http://www.sismologia.cl/),
organismo oficial dependiente, del Departamento de Geofísica (DGF) y de la Facultad
de Ciencias Físicas y Matemáticasde la Universidad de Chile, la cual cuenta con un
amplio registro de los terremotos ocurridos en el país. Fue fundada el 1 de mayo de
1908, debido a la imperiosa necesidad de tener un organismo sismológico en el país
por la alta tasa de actividad sísmica que presentaba el país, que se hizo más patente si
cabe tras el gran terremoto que devastó Valparaíso en 1906. Su primer director fue un
científico francés, Fernand de Montessus de Ballore. El centro cuenta con unas 65
estaciones sismológicas repartidas por todo Chile.
Se decidió centrarse en cuatro zonas del país que ofrecían una gran actividad
sísmica durante los últimos años. Concretamente las zonas escogidas fueron:
• Talca
• Pichilemu
• Santiago
• Valparaíso
Con el objetivo de contar con el suficiente número de datos, se seleccionaron los
terremotos ocurridos en los últimos once años. Se ha recabado información de esta
manera, de los terremotos registrados entre el periodo de tiempo comprendido entre
enero de 2001 y mediados de 2012.
Los datos que se solicitaron de dichas zonas, y con los que al fin y al cabo se ha
trabajado en este estudio son los siguientes:
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 81
• Magnitud del terremoto.
• Localización del terremoto. Mediante dos parámetros, la latitud y la
longitud.
• Fecha del terremoto. Fecha exacta de ocurrencia del terremoto,
incluyendo la hora y minutos.
Es importante resaltar, igualmente, que siguiendo las recomendaciones de
expertos en sismología, sólo se han obtenido terremotos con magnitud M >3.0ya
que por debajo de ese umbral son muchas veces imperceptibles por el ser
humano y es prácticamente imposible que ocasionen daños materiales. En
resumen, los datos obtenidos de acuerdo con los parámetros anteriormente
comentados fueron:
1. Para la zona de Talca, un total de 274 terremotos.
2. Para la zona de Pichilemu, un total de 414 terremotos.
3. Para la zona Santiago, un total de 551 terremotos.
4. Para la zona Valparaíso, un total de 1050 terremotos
4.2 Preprocesamiento y transformación
Esta sección expone todos los fundamentos matemáticos que apoyan la
metodología aplicada. Primero se describe la ley de Gutenber-Ritcher. Después, se
presenta el parámetro usado para llevar a cabo predicciones (la variable b) y se discute
su relevancia como indicador de terremotos.
1. Ley de Gutenberg-Ritcher
La distribución de magnitud de terremotos ha sido estudiada desde
comienzos del siglo veinte. Gutenberg and Richter (1942) e Ishimoto and
Iida (1939) observaron que el número de terremotos, N, de magnitud
mayor o igual a M sigue una ley de distribución de potencia definida por Ì�5� = Õ5H¶ (4.2.1)
Donde ∝ y β son parámetros de ajuste.
Gutenberg and Richter (1954) transformaron esta ley de potencia en una
ley lineal expresando esta relación para la distribución de frecuencia de
magnitud de terremotos como 1�_� �Ì�5�� = Ø − Ù5 (4.2.2)
La ley relaciona el número acumulativo de eventos N(M) con magnitudes
mayores o iguales a M con la actividad sísmica, a, y el factor de distribución
de tamaño, b. El valor a es el logaritmo del número de terremotos con
magnitud mayor o igual a cero. El valor b es un parámetro que refleja la
tectónica del área de análisis (Lee & Yang, 2006) y ha sido relacionado con
las características físicas del área. Un valor alto del parámetro implica que
el número de terremotos de pequeña magnitud es predominante, y por lo
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 82
tanto, la región tiene una resistencia baja. Por otro lado, un valor bajo
muestra que el número relativo de pequeños y grandes eventos es similar,
implicando una mayor resistencia del material.
Gutenberg y Ritcher usaron el método de mínimos cuadrados para estimar
coeficientes en la relación de frecuencia-magnitud de la fórmula (4.2.2) Shi
and Bolt (1982) señalaron que el valor b puede ser obtenido por este
método pero la presencia de incluso grandes terremotos tiene una
influencia significativa en los resultados. El método de máxima
verosimilitud, por lo tanto, aparece como una alternativa al método de
mínimos cuadrados, el cual produce estimaciones que son más robustas
cuando el número de grandes terremotos poco frecuentes cambia.
También demostraron que para grandes muestras y bajas variaciones
temporales de b, la desviación estándar del valor b estimado es: ¡�Ù� = 2.30Ù<¡�5� (4.2.3)
Donde ¡<�5� = ∑ �«+E«�ÛÛÛÛpÂ+CD ! (4.2.4)
y n es el número de eventos y Mi la magnitud de un sólo evento.
Se asume que las magnitudes de terremotos que ocurren en una región y
en un periodo de tiempo determinado son independientes, e
idénticamente se distribuyen variables que siguen la ley de Gutenberg-
Ritcher (Ranalli, 1969) . Esta hipótesis es equivalente a suponer que la
densidad de probabilidad de la magnitud M es exponencial: ^�5, �� = �exp�−��5 −5 " (4.2.5)
Donde � = #djk���
(4.2.6)
y M0 es la magnitud de corte.
Así, con el objetivo de estimar el valor b, es necesario una estimación
previa de β. En Utsu (1965) , el método de máxima verosimilitud fue
aplicado para obtener un valor para β definido por � = �«H«IÛÛÛÛÛÛÛÛÛ (4.2.7)
donde Ā es la magnitud media de todos los terremotos en el conjunto de
datos.
De todas las posibilidades anteriormente mencionadas, el método de
máxima verosimilitud ha sido seleccionado para la estimación del valor b
en este trabajo.
2. El valor b como precursor sísmico
La variable b de la ley de Gutenberg-Ritcher es un parámetro importante,
porque refleja las propiedades tectónicas y geofísicas de las rocas y las
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 83
variaciones de presión de fluidos en la región de que se trate (Lee & Yang,
2006, Zollo, Marzocchi, Capuano, Lomaz, & Iannaccone, 2002). Por ello, el
análisis de su variación ha sido normalmente usado en la predicción de
terremotos (Nuannin, Kulhanek, & Persson, 2005). Es importante saber
cómo la secuencia de variables b ha sido obtenida, antes de presentar
conclusiones sobre su variación. Los estudios de Gibowitz (1974) and
Wiemer et al. (2002) en la variación de la variable b en el tiempo se refiere
a las réplicas. En general, mostraron que la variable b tiende a decrecer
cuando muchos terremotos ocurren en un área local durante un periodo
de tiempo corto.
Otros autores Schorlemmer, Wiemer, and Wyss (2005), Nuannin et al.
(2005) infieren que el valor b es un medidor de tensión que dependen
inversamente de la tensión diferencial.
Por lo tanto Nuannin et al. (2005) presentó un análisis detallado de la
variación de la variable b. Estudió los terremotos en la región de Andaman-
Sumatra. Para considerar variaciones en el valor b, fue usado un espacio de
tiempo de deslizamiento. La variable b fue calculada para un grupo de
cincuenta eventos, desde el catálogo de terremotos. Después, el espacio se
cambia por un tiempo correspondiente con cinco eventos. Concluyeron
que los terremotos son normalmente precedidos por un gran decremento
en b, aunque en algunos casos un pequeño incremento de este valor
precede a un sismo.
Sammonds, Meredith, and Main (1992) clarificaron los cambios de tensión
en la falla y la variación de la variable b que rodea a un terremoto
importante. Afirman que "un estudio sistemático de cambios temporales
en variables b de sismicidad han mostrado que grandes terremotos son
normalmente precedidos por un incremento a medio plazo en b, seguido
por un decremento en los meses o semanas antes de un terremoto. El inicio
de la variable b puede preceder a ocurrencias de terremotos en hasta siete
años", Sammonds, Meredith, and Main (1992).
4.3 Minería de datos
En esta sección se describe la metodología propuesta con el objetivo de descubrir
conocimiento de series de terremotos temporales.
Ante todo, el conjunto de datos de terremotos se construye como sigue: cada
terremoto se representa por tres características: la magnitud, la variable b y la fecha
de ocurrencia. Por ello el terremoto i-esimo se define como: �� = �5�, �, ���, (4.3.1)
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 84
donde Mi es la magnitud del terremoto, bi es la variable b asociada al terremoto y
ti es la fecha en la cual el terremoto tuvo lugar.
La variable b es calculada siguiendo las fórmulas (4.2.6) y (4.2.7) considerando los
50 eventos precedentes Nuannin et al. (2005). Por tanto, el número de terremotos con
magnitud mayor o igual a 3 sigue una ley exponencial permitiendo la aplicación de la
ley de Gutenberg-Ritcher. Por otro lado, la magnitud de corte es establecida a tres.
Además, los datos son agrupados en conjuntos de cinco terremotos ordenados
cronológicamente de acuerdo con la metodología propuesta en Nuannin et al. (2005).
Así, se proporciona una ley más simple con interpretaciones más fáciles. Cada grupo Gj
se representa por la media de la magnitud de cinco terremotos, el tiempo transcurrido
desde el primer terremoto al quinto y la variación suscrita de la variable b en dicho
intervalo de tiempo, por ejemplo,
Ü© = Ý�$H�, … . . , �$ß~�È� = 5¾;¾ = 1,… . , '��- (4.3.2)
donde N es el número de terremotos en el conjunto de datos y [N/5] es el mayor
entero menor o igual que N/5. Así, Ü© = �5àÛÛÛ, ΔÙ© , Δ�©� (4.3.3)
Donde 5àÛÛÛ = ��∑ 5�,~�È� = 5¾$��$H� (4.3.4)
ΔÙ = Ù$ − Ù$H�, ~�È� = 5¾ (4.3.5) Δ�© = �$ − �$H�, ~�È� = 5¾ (4.3.6)
Finalmente, el conjunto de datos está compuesto por la secuencia temporal de
todos los Gj, áF = ÝÜ�, Ü<, … . . , Ü��/�"ß (4.3.7)
El objetivo es buscar patrones en datos que preceden la aparición de terremotos
con magnitud mayor o igual 4.5. Por lo tanto, el algoritmo K-means es aplicado al
conjunto de datos, DS, con la intención de clasificar las muestras en diferentes grupos.
Como paso previo, se tiene que determinar el número óptimo de clústeres ya que el
algoritmo K-means necesita este número como datos de entrada.
Para este propósito, se aplica un índice válido bien conocido (índice de silueta)
sobre los datos agrupados para números diferentes de clústeres. Así, cada muestra es
considerada sólo por la etiqueta asignada por el algoritmo K-means en análisis más
detallados. Una vez que estas etiquetas han sido obtenidas, se buscan secuencias
específicas de etiquetas como precursoras de terremotos a medio plazo.
La siguiente sección detalla el algoritmo k-means, utilizado en este estudio.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 85
El algoritmo K-means fue originalmente presentado por Macqueen (1968). Para
cada clúster, su centroide es usado como el punto más representativo. El centroide de
un grupo de elementos es el centro de gravedad de todos los elementos en el clúster.
En consecuencia, sólo puede ser aplicado cuando la media de cada clúster puede ser
definida, por ejemplo, el algoritmo K-means puede clasificar conjuntos de datos
conteniendo características cuantitativas.
El algoritmo reúne n objetos en K conjuntos e incrementa la similaridad intra-
clúster al mismo tiempo. La similaridad es medida con respecto al centroide de los
objetos que pertenecen al clúster. Entonces, el propósito es minimizar las diferencias
intra-clúster definidas como las siguientes funciones de error cuadradas â = ∑ ∑ |�©Hã�|<Q¦∈Ï+ ,$��� (4.3.8)
donde K es el número de clúster, Ci es el clúster i, µi es el centroide del clúster i y xj
es el j-ésimo objeto a agrupar.
El algoritmo K-means es un método simple y eficiente, específicamente útil
cuando grandes conjuntos de datos son manejados y converge extremadamente
rápido en la mayoría de los casos prácticos. En este trabajo, se aplica K-means varias
veces con el objetivo de evitar que sean encontrados los mínimos locales y para
reducir la dependencia de los centros iniciales de clúster, los cuales son seleccionados
aleatoriamente.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 86
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 87
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 88
Capítulo 5 . Resultados
5.1 Resultados Talca
Talca es una ciudad de Chile, situada en la región de Maule y en la provincia del
mismo nombre, de la que es capital. Se encuentra localizada hacia el centro del país.
Cuenta con una superficie de 232 km2 y una población estimada de 250.000
habitantes.
El nombre de Talca proviene de la palabra mapudungun (idioma de un pueblo
indio que habita en Chile), Tralka, que significa “lugar del trueno”, y su fundación se
sitúa alrededor del 12 de mayo de 1742.
Es una ciudad muy activa en cuanto a seísmos se refiere, habiéndose registrado
fuertes terremotos a lo largo de toda su historia. Uno de los más destructivos ocurrió
en 1928, alcanzando una magnitud de 8,3 Ms y destruyendo aproximadamente el 75%
de la ciudad. Las consecuencias de tal catástrofe fueron 279 fallecidos, 1.083 heridos y
127.043 damnificados.
En el estudio realizado sobre esta área, en el periodo de tiempo comprendido
entre el año 2.002 y el año 2.012 se contabilizaron 24 terremotos mayores de 4,4 Ms,
los cuales se pueden ver representados en el siguiente gráfico, junto con las secuencias
obtenidas, y la variación de la variable b durante ese periodo de tiempo.
Gráfico 5.1. Zona: Talca. Atributo b, etiquetas y terremotos.
En dicho gráfico se muestra en el eje X la fecha, en la parte izquierda los valores de
las etiquetas y los valores de la variable b, y en la parte derecha los valores de los
terremotos mayores a 4,4 Ms.
Así, clasificando los terremotos dependiendo de la secuencia en la que han
ocurrido, se pueden comparar con el número total de ocurrencias de cada secuencia.
Destacar que 2 de los 24 terremotos ocurridos se situaba fuera del periodo estudiado,
ya que ocurrieron dentro de los primeros 50 terremotos analizados y necesarios para
0
2
4
6
0
0,5
1
1,5
2
2,5
2003 2004 2005 2006 2007 2008 2009 2010 2011 2012
b etiquetas >4.4
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 89
obtener la variable b. Así el estudio final se hace sobre 22 terremotos de magnitud
superior a 4,4.
Tabla 5.1 Zona: Talca. Clasificación terremotos
Secuencia Terremotos ocurridos Ocurrencias de la secuencia
[0,0] 6 16
[0,1] 6 6
[0,2] 2 4
[1,0] 1 6
[1,1] 6 8
[1,2] 0 0
[2,0] 1 4
[2,1] 0 0
[2,2] 0 0
Resaltados en color azul, se encuentran las secuencias elegidas para el estudio, en
este caso las secuencias [0,1], [0,2] y [1,1].
De ello se obtienen los siguientes resultados:
Tabla 5.2. Zona: Talca. Resultados secuencias escogidas.
TP TN FP FN S E
Resultados secuencias elegidas 14 18 4 8 0,64 0,82
Antes de comentar los resultados obtenidos, comentar las columnas que presenta,
ya que todos los resultados de las distintas zonas analizadas presentarán el mismo
formato. Se cuantifica, cuando las secuencias elegidas han dado una alarma de
terremoto acertada (TP), cuando no ha dado alarma sin que fuera a haber terremoto
(TN), las veces que da una alarma de terremoto y no hay (FP) y cuando no se da alarma
de terremoto, pero realmente lo hay (FN).
En cuanto a los dos últimos valores se refieren a medidas de evaluación,
sensibilidad (S) y especificidad (E). La sensibilidad no es más que los TP dividido entre
el número total de terremotos ocurridos (TP+FN), mientras que la especificidad es los
TN dividido entre la suma de los TN y los FP.
En este caso se puede comprobar cómo se obtienen resultados prometedores. Se
puede observar que la tasa de FP es muy baja debido, justamente, a la elección de
secuencias candidatas que se han hecho. Este hecho repercute directamente en la alta
especificidad obtenida. Es decir, con el conjunto de secuencias escogidas se tiene la
certeza al 82% de que cuando se vaticine que no habrá un terremoto, efectivamente
no ocurrirá. Por otro lado, se intentaba cubrir el máximo posible de eventos y así lo
demuestra la sensibilidad elevada que hemos obtenido, con un 62% de acierto.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 90
5.2 Resultados Pichilemu
Pichilemu es una ciudad de Chile, situada en la región de O’Higgins y en la
provincia de Cardenal Caro, de la que es capital. Se encuentra localizada hacia el centro
del país. Cuenta con una superficie de 749 km2 y una población estimada de 12.866
habitantes.
El nombre de Pichilemu significa en lengua mapdugun “Bosque Pequeño”, y su
fundación se sitúa alrededor del 24 de enero de 1544.
Se considera una zona bastante activa en cuanto a sismos se refiere, al igual que
todo el país de Chile en sí. Uno de los últimos terremotos más significativos ocurrió en
marzo de 2010, conocido como "terremoto de Pichilemu de 2010" o como "terremoto
de la región de O'Higgins" tuvo una magnitud de 6.9 Ms. El origen del terremoto fue
situado 15 kilómetros al noroeste de la ciudad, aunque fue considerado inicialmente
como réplica del terremoto del 27 de febrero de 8.8 Ms que sacudió gravemente a
todo el país, fue estimado como un terremoto completamente diferente a este.
En las horas siguientes al terremoto de Pichilemu, se sucedieron una serie de
réplicas con once movimientos sísmicos con magnitud superior a 5,0 y dos con
magnitud superior a 6,0. Además, el primero de estos tres sismos generó una alerta de
tsunami preventiva.
En lo que respecta al estudio realizado sobre esta área, se contabilizaron 75
terremotos entre los años 2002 a 2012 mayores de 4,4 Ms, los cuales se pueden ver
representados en el siguiente gráfico, junto con las secuencias obtenidas, y la variación
de la variable b durante ese periodo de tiempo.
Gráfico 5.2. Zona: Pichilemu. Atributo b, etiquetas y terremotos.
Así, clasificando los terremotos dependiendo de la secuencia en la que han
ocurrido, se pueden comparar con el número total de ocurrencias de cada secuencia.
Comentar en este punto que 2 de los 75 terremotos ocurridos se situaban fuera del
periodo estudiado, ya que ocurrieron dentro de los primeros 50 terremotos analizados
0
2
4
6
8
0
0,5
1
1,5
2
2,5
2005 2006 2007 2008 2009 2010 2011 2012
b etiquetas >4,4
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 91
y necesarios para obtener la variable b. Así el estudio final se hace sobre 73 terremotos
de magnitud superior a 4,4.
Tabla 5.3 Zona: Pichilemu. Clasificación terremotos
Secuencia Terremotos ocurridos Ocurrencias de la secuencia
[0,0] 3 8
[0,1] 1 7
[0,2] 7 8
[1,0] 2 7
[1,1] 5 8
[1,2] 6 6
[2,0] 6 8
[2,1] 6 6
[2,2] 37 37
Resaltados en color azul, se encuentran las secuencias elegidas para el estudio, en
este caso las secuencias [0,2], [1,1],[1,2], [2,1] y [2,2].
De ello se obtienen los siguientes resultados:
Tabla 5.4. Zona: Pichilemu. Resultados secuencias escogidas.
TP TN FP FN S E
Resultados secuencias elegidas 61 18 4 12 0,84 0,82
Como se puede observar, se obtienen resultados verdaderamente positivos con
una gran cantidad de TP, habiendo predicho 61 de los 73 terremotos que de verdad
ocurrieron. Debido a esto se obtiene un 84% de acierto escogiendo las secuencias
mencionas anteriormente.
Así mismo el bajo valor de FP, solamente 4, hace que se obtenga un alto valor de
precisión en la especificidad, concretamente se indica que en el 82% de los casos en
los que prediga que no habrá terremotos, se acertará.
5.3 Resultados Santiago
Santiago es ciudad y capital de Chile, situada en la región metropolitana de
Santiago y en la provincia también conocida de Santiago, de la que también es capital.
Se encuentra localizada un poco por encima del centro del país. La ciudad acoge los
principales organismos del país, como son el administrativo, comercial, cultural,
financiero y gubernamental. Cuenta con una superficie de 641 km2 y una población
estimada de 5.429.000 habitantes.
El 12 de febrero de 1.541, el conquistador extremeño Pedro de Valdivia fundaría
oficialmente la ciudad de Santiago del Nuevo Extremo (Santiago de la Nueva
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 92
Extremadura) en honor al Apóstol Santiago, santo patrono de España. Sin embargo, no
se permitiría el establecimiento definitivo hasta el año 1607 debido, entre otros
factores, a una sucesión de desoladores terremotos.
Es una ciudad activa en términos sísmicos, habiéndose registrado fuertes
terremotos a lo largo de toda su historia. De hecho el más destructivo documentado se
remonta a la todavía época colonial, alrededor del 13 de mayo de 1647. El sismo se
sintió en su totalidad por lo que entonces se conocía como Reino de Chile, colonia del
imperio español. Fue conocido como “Terremoto Magno” y tuvo una magnitud
estimada de 8,5 en la escala de Richter. El sismo arrasó casi la totalidad de las
construcciones coloniales existentes, considerándose como el quinto terremoto más
mortífero en la historia de Chile. No en vano se estima que fallecieron alrededor de
600 personas, en una ciudad que tenía una población de 4.000 habitantes, por lo que
perecieron entre el 15% y el 25% de la población total.
Concretando, en el estudio llevado a cabo sobre esta área, se contabilizaron 15
terremotos entre los años 2002 a 2012 mayores de 4,4 Ms, los cuales se pueden ver
representados en el siguiente gráfico, junto con las secuencias obtenidas, y la variación
de la variable b durante ese periodo de tiempo.
Gráfico 5.3. Zona: Santiago. Atributo b, etiquetas y terremotos.
De nuevo, clasificando los terremotos dependiendo de la secuencia en la que han
ocurrido, se pueden comparar con el número total de ocurrencias de cada secuencia.
Hay que destacar en este punto que 1 de los 15 terremotos ocurridos se situaban fuera
del periodo estudiado, por lo que, como se comentó anteriormente en otras áreas de
estudio, sólo se toman para el análisis final 14 de los 15 terremotos, como se muestra
en la siguiente tabla.
Tabla 5.5 Zona: Santiago. Clasificación terremotos
Secuencia Terremotos ocurridos Ocurrencias de la secuencia
[0,0] 6 66
[0,1] 0 2
0
2
4
6
8
0
0,5
1
1,5
2
2,5
3
2002 2004 2006 2008 2010 2012
b etiquetas >4,4
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 93
[0,2] 0 6
[1,0] 0 1
[1,1] 3 6
[1,2] 0 5
[2,0] 1 6
[2,1] 2 5
[2,2] 2 2
Resaltados en color azul, se encuentran las secuencias elegidas para el estudio, en
este caso las secuencias [1,1], [2,1] y [2,2].
De ello se obtienen los siguientes resultados:
Tabla 5.6 Zona: Santiago. Resultados secuencias escogidas
TP TN FP FN S E
Resultados secuencias elegidas 7 79 6 7 0,5 0,92
De nuevo, destacar la gran cantidad de TN obtenidos, lo cual, junto con el bajo
número de FP, hace que se obtenga una precisión del 92% de especificidad, por lo que
se podría afirmar que cada vez que se estime que no habrá terremoto, siguiendo las
secuencias escogidas, se acertará en casi todos los casos.
En el caso de la sensibilidad, aun no ofreciendo unos datos abrumadoramente
buenos, se obtiene una puntuación satisfactoria ya que la precisión de acierto de
ocurrencia de terremotos es de un 50%, resultado obtenido de predecir 7 de los 14
terremotos ocurridos
5.4 Resultados Valparaíso
Valparaíso es una ciudad de Chile, situada en la región y provincia del mismo
nombre, siendo la capital de ambas. Se encuentra localizada ligeramente por encima
del centro del país. Cuenta con una superficie de unos 438 km2 y una población
estimada de 294.848 habitantes, convirtiéndola en una de las 3 ciudades más grandes
de todo el país.
Fue fundada en los primeros días de septiembre de 1.536 por el capitán español
Juan de Saavedra, el cual, junto a treinta hombres, buscaban un barco de provisiones
perdido, dando con él en este lugar. Saavedra denominó a la bahía en donde encontró
a la embarcación como Valparaíso, en honor a su ciudad natal: Valparaíso de Arriba,
en España.
Junto al resto de ciudades estudiadas en este trabajo, se considera una zona
bastante activa en cuanto a sismos se refiere, al igual que todo el país. Uno de los
mayores fue el Terremoto de Valparaíso de 1.730, movimiento ocurrido el 8 de julio de
1730, de una magnitud de 8,7Ms. Su epicentro se situó hacia el norte de la ciudad y
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 94
provocó un tsunami muy destructivo de magnitud Mt=8,75 que inundó las partes bajas
de Valparaíso y afectó a más de 1.000 km de la costa de Chile. Se estima que murieron
unas 3.000 personas.
En el estudio realizado sobre esta área, en el periodo de tiempo comprendido
entre el año 2.002 y el año 2.012 se contabilizaron 53 terremotos mayores de 4,4 Ms,
los cuales se pueden ver representados en el siguiente gráfico, junto con las secuencias
obtenidas, y la variación de la variable b durante ese periodo de tiempo.
Gráfico 5.4. Zona: Valparaíso. Atributo b, etiquetas y terremotos.
Una vez más, clasificando los terremotos dependiendo de la secuencia en la que
han ocurrido, se pueden comparar con el número total de ocurrencias de cada
secuencia. Y de nuevo hay que destacar en este punto que 1 de los 53 terremotos
ocurridos se situaban fuera del periodo estudiado, por lo que, como se comentó
anteriormente en otras áreas de estudio, sólo se toman para el análisis final 52 de los
53 terremotos, como se muestra en la siguiente tabla.
Tabla 5.7 Zona: Valparaíso. Clasificación terremotos
Secuencia Terremotos ocurridos Ocurrencias de la secuencia
[0,0] 7 72
[0,1] 3 8
[0,2] 8 33
[1,0] 1 4
[1,1] 2 3
[1,2] 9 9
[2,0] 5 38
[2,1] 2 4
[2,2] 15 29
Resaltados en color azul, se encuentran las secuencias elegidas para el estudio, en
este caso las secuencias [1,1], [1,2] y [2,1].
0
1
2
3
4
5
6
7
0
0,5
1
1,5
2
2,5
2002 2004 2006 2008 2010 2012
b etiquetas >4,4
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 95
De ello se obtienen los siguientes resultados:
Tabla 5.8 Zona: Valparaíso. Resultados secuencias escogidas
TP TN FP FN S E
Resultados secuencias elegidas 23 144 3 39 0,37 0,98
Se puede observar que la tasa de TN es muy alta en comparación con los FP,
debido precisamente a la elección de secuencias candidatas escogidas. Este hecho
repercute directamente con la alta especificidad obtenida, consiguiéndose una certeza
del 98% de que cuando se prediga que no habrá terremoto, verdaderamente, no
ocurrirá. Por otro lado, se ha intentado cubrir de nuevo el máximo número posible de
eventos, aunque en este caso, ha sido bajo, siendo un 37% el porcentaje de precisión
de esta medida, resultado de predecir 23 de los 62 terremotos ocurridos.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 96
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 97
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 98
Capítulo 6 . Conclusiones
En este trabajo se ha realizado un extenso estudio del estado del arte sobre
predicción de terremotos. Este hecho ha permitido descubrir que existe una
proporción muy pequeña de estudios basados en minería de datos, sobre todo si se
compara con la cantidad de ellos basados en asunciones estadísticas o estudios
puramente geofísicos. Desde ese punto de vista, uno de los primeros objetivos era
demostrar la potencia que esta familia de técnicas tiene en un problema aún sin
resolver y con muchas cuestiones abiertas.
Existen fundamentalmente dos tipos de análisis: aquellos que se encargan de
predecir la ocurrencia de terremotos a partir de determinados patrones y aquellos que
se encargan de descubrir, precisamente, dichos patrones. Este estudio se posiciona en
la segunda tarea y para la consecución de la misma se ha desarrollado una
metodología para el descubrimiento de patrones precursores, basada en técnicas de
clustering.
Esta metodología ha sido probada en datos de uno de los países con mayor
actividad sísmica a nivel mundial: Chile. Y para probar la generalidad del método
propuesto, se han evaluado cuatro zonas diferentes y con diferentes propiedades
geofísicas Santiago, Pichilemu, Talca y Valparaíso.
Otro de los puntos destacables es la pequeña incertidumbre espacial de las zonas
estudiadas. Es decir, se ha trabajado con datos recogidos en un radio de entre 50 y 100
kilómetros, dependiendo de la ciudad en cuestión. Este hecho es digno de mención ya
que los resultados aquí presentados son muy precisos en ese aspecto: sería muy fácil
hacer predicciones del tipo: “durante los próximos 5 meses habrá un terremoto en
Asia”, tal y como hacen algunos equipos de investigación muy mediáticos.
Como líneas de investigación futura, se plantea una muy clara consistente en
intentar generalizar la metodología y resultados a cualquier parte del mundo. Esto es,
intentar descubrir patrones a nivel mundial que pudieran identificar de manera
efectiva la ocurrencia de terremotos.
Como siguiente paso, éste tal vez más ambicioso, sería buscar relaciones
temporales entre dichos patrones. Se sabe que lo que ocurre en una zona de
subducción acaba afectando a otras zonas. En ese sentido se plantea el problema de
predecir terremotos en una zona determinada del mundo, a partir del descubrimiento
de patrones en otra, con un cierto desfase temporal.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 99
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 100
Capítulo 7 . Referencias
Adeli, H., Panakkat, A., 2009. A probabilistic neural network for earthquake
magnitude prediction. Neural Networks 22, 1018–1024. Akaike, H., 1974. New look at
statistical-model identification. IEEE Transactions on Automatic Control 6, 716–723
AC19.
Aki, K., 1965. Maximum likelihood estimate of b in the formula logN=a−bM and its
confidence limits. Bulletin of the Earthquake Research Institute 43, 237–239.
Akinci, A., 2010.HAZGRIDX: earthquake forecasting model forML≥ 5.0 earthquakes
in Italy based on spatially smoothed seismicity. Annals of Geophysics
53.doi:10.4401/ag-4811.
Allen, C.R., 1968. The tectonic environments of seismically active and inactive
areas along the San Andreas fault system. In: Dickinson, W.R., Grantz, A. (Eds.),
Proceedings of the Conference on Geologic Problems of the San Andreas Fault System.
Geol. Sci., 11. Stanford Univ. Publ, pp. 70–82.
Alves, E.I., 2006. Earthquake forecasting using neural nets.Nonlinear Dynamics 44.
doi:10.1007/s11071-006-2018-1.Co.
Anderson, J.G., Rockwell, T.K., Agnew, D.C., 1989.Past and possible future
earthquakes of significance to the San Diego region. Earthquake Spectra 5, 299–335.
Arrowsmith, R., McNally, K., Davis, J., 1997. Potential for earthquake rupture and
M 7 earthquakes along the Parkfield, Cholame, and Carrizo segments of the San
Andreas Fault. Seismological Research Letters 68, 902–916.
Bakun, W.H., Lindh, A.G., 1985. The Parkfield, California, earthquake prediction
experiment. Science 229, 619–624.
Bakun, W.H., McEvilly, T.V., 1984. Recurrence models and Parkfield, California,
earthquakes.Journal of Geophysical Research 89, 3051–3058.
Bakun, W.H., King, G.C.P., Cockerham, R.S., 1986. Seismic slip, aseismic slip, and
the mechanics of repeating earthquakes on the Calaveras fault, California, in
Earthquake Source Mechanics. In: Das, S., Boatwright, J., Schlotz, C.H. (Eds.), Geophys.
Monogr.Ser., vol. 37. AGU, Washington, D.C, pp. 195–208.
Bakun, W.H., Aagaard, B., Dost, B., Ellsworth, W.L., Hardebeck, J.L., Harris, R.A., Ji,
C., Johnston, M.J.S., Langbein, J., Lienkaemper, J.J., Michael, A.J., Murray, J.R., Nadeau,
R.M., Reasenberg, P.A., Reichle, M.S., Roeloffs, E.A., Shakal, A., Simpson, R.W.,
Waldhauser, F., 2005. Implications for prediction and hazard assessment from the
2004 Parkfield earthquake. Nature 437, 969–974.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 101
Båth, M., 1965. Lateral inhomogeneities in the upper mantle. Tectonophysics 2,
483–514.
Ben-Zion, Y., Lyakhovsky, V., 2002.Accelerated seismic release and related aspects
of seismicity patterns on earthquake faults.Pure and Applied Geophysics 159, 2385–
2412.
Biasi, G., Weldon II, R.J., 2006. Estimating surface rupture length and magnitude of
paleoearthquakes from point measurements of rupture displacement. Bulletin of the
Seismological Society of America 96, 1612. doi:10.1785/0120040172.
Biasi, G.P., Weldon II, R.J., Fumal, T.E., Seitz, G.G., 2002. Paleoseismic event dating
and the conditional probability of large earthquakes on the southern San Andreas
fault, California. Bulletin of the Seismological Society of America 92, 2761–2781.
Bird, P., Kagan, Y.Y., 2004. Plate-tectonic analysis of shallow seismicity: apparent
boundary width, beta, corner magnitude, coupled lithosphere thickness, and coupling
in seven tectonic settings. Bulletin of the Seismological Society of America 94, 2380–
2399.
Boore, D.M., Joyner, W.B., Fumal, T.E., 1997. Equations for estimating horizontal
response spectra and peak acceleration from western North America earthquakes: a
summary of recent work. Seismological Research Letters 68, 128–153.
Bowman, D.D., King, G.C.P., 2001.Accelerating seismicity and stress accumulation
before large earthquakes.Geophysical Research Letters 28, 4039–4042.
Bowman, D.D., Sammis, C.G., 2004.Intermittent criticality and the Gutenberg
Richter distribution. Pure and Applied Geophysics 161, 1,945–1,956.
Bowman, D.D., Ouillon, G., Sammis, C.G., Sornette, A., Sornette, D., 1998.An
observational test of the critical earthquake concept. Journal of Geophysical Research
103, 24,359–24,372.
Brehm, D.J., Braile, L.W., 1998. Intermediate-term earthquake prediction using
precursory events in the New Madrid Seismic Zone. Bulletin of the Seismological
Society of America 88, 564–580.
Brodsky, E.E., 2006. Long-range triggered earthquakes that continue after the
wave train passes. Geophysical Research Letters 33, L15313.
doi:10.1029/2006GL026605.
Bufe, C.G., Varnes, D.J., 1993. Predictive modeling of the seismic cycle of the
greater San Francisco Bay region.Journal of Geophysical Research 98, 9871–9883.
Burnham, K.P., Anderson, D.R., 2002. Model Selection and Multimodel Inference:
A Practical Information-Theoretic Approach. Springer, New York.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 102
Cao, L., Fang, H., Li, Q., Chen, J., 1996. Forecasting b-values for seismic events.
International Journal of Bifurcation and Chaos 6, 545–555.
Cao, T.Q., Bryant, W.A., Rowshandel, B., Branum, D., Wills, C.J., 2003. The Revised
2002 California Probabilistic Seismic Hazard
Maps.www.conservation.ca.gov/CGS/rghm/psha/fault_parameters/pdf/2002_CA_Haz
ard_Maps.pdf2003.
Cao, T.Q., Petersen, M.D., Frankel, A.D., 2005. Model uncertainties of the 2002
update of California seismic hazard maps. Bulletin of the Seismological Society of
America 95,2040–2057.
Cavallo, E., Powell, A., Becerra, O., 2010. Estimating the direct economic damage
of the earthquake in Haiti. Inter-American Development Bank working paper series,
No. IDB-WP-163.
CEPEC Report, 2004a. Report to the Director, Governor's Office of Emergency
Services by the California Earthquake Prediction Evaluation Council March 2, 2004.
http://www.oes.ca.gov/Operational/OESHome.nsf/PDF/CEPECkbReport/$file/CEPEC_K
BReport_3-2-4.pdf2004March 2004.
CEPEC Report, 2004b. Report to the Director, Governor's Office of Emergency
Services by the California Earthquake Prediction Evaluation Council December 9,
2004.http://www.oes.ca.gov/WebPage/oeswerbsite.nsf/Content/899D66837A2B126C
8825742C007645C4?OpenDocument2004December 2004.
Chang, W.L., Smith, R.B., 2002. Integrated seismic-hazard analysis of the Wasatch
Front, Utah. Bulletin of the Seismological Society of America 92, 1902–1922.
Chastin, S.F.M., Main, I.G., 2003. Statistical analysis of daily seismic event rate as a
precursor to volcanic eruptions. Geophysical Research Letters 30 (13),
1671.doi:10.1029/2003GL016900.
Chen, C.C., Wu, Y.X., 2006. An improved region–time–length algorithm applied to
the 1999 Chi-Chi, Taiwan earthquake. Geophysical Journal International 166,1144–
1147.
Chen, C., Rundle, J.B., Holliday, J.R., Nanjo, K.Z., Turcotte, D.L., Li, S., Tiampo, K.F.,
2005.The 1999 Chi-Chi, Taiwan, earthquake as a typical example of seismic activation
and quiescence. Geophysical Research Letters 32, L22315. doi:10.1029/2005GL023991.
Christophersen, A., Smith, E.G., 2008. Foreshock rates from aftershock abundance.
Bulletin of the Seismological Society of America 98, 2133–
2148.doi:10.1785/0120060143.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 103
Cinti, F.R., Faenza, L., Marzocchi, W., Montone, P., 2004.Probability map of the
next M5.5 earthquakes in Italy.Geochemistry, Geophysics, Geosystems
5.doi:10.1029/2004GC000724 Q11003.
Cochran, E.S., Vidale, J.E., Tanaka, S., 2004. Earth tides can trigger shallow thrust
fault earthquakes. Science 306, 1164–1166.
Console, R., Murru, M., 2001.A simple and testable model for earthquake
clustering. Journal of Geophysical Research 106, 8,699–8,711.
Console, R., Murru, M., Lombardi, A.M., 2003.Refining earthquake clustering
models.Journal of Geophysical Research 108, 2468.doi:10.1029/2002JB002130.
Console, R., Murru, M., Catalli, F., 2006a.Physical and stochastic models of
earthquake clustering. Tectonophysics 417, 141–153.
Console, R., Rhoades, D.A., Murru, M., Evison, F.F., Papadimitriou, E.E., Karakostas,
V.G., 2006b. Comparative performance of timeinvariant, long-range and short-range
forecasting models on the earthquake catalogue of Greece.Journal of Geophysical
Research 111, B09304.doi:10.1029/2005JB004113.
Console, R., Murru, M., Catalli, F., Falcone, G., 2007. Clustering model constrained
by the rate-and-state constitutive law: comparison with a purely stochastic ETAS
model. Seismological Research Letters 78, 49–56.
Console, R., Murru, M., Falcone, G., 2010. Probability gains of an epidemic-type
aftershock sequence model in retrospective forecasting of M≥5 earthquakes in Italy.
Journal of Seismology 14, 9–26. doi:10.1007/s10950-009-9161-3.
Cox, D.R., 1972.Regression models and life tables with discussion. Journal of the
Royal Statistical Society, Series B 34, 187–220.
Crampin, S., Gao, Y., 2010. Earthquakes can be stress-forecast. Geophysical
Journal International 180, 1124–1127. doi:10.1111/j.1365-246X.2009.04475.x.
CSEP, d. www.cseptesting.org.
Davison, F., Scholz, C.H., 1985. Frequency-moment distribution of earthquakes in
the Aleutian Arc: a test of the characteristic earthquake model. Bulletin of the
Seismological Society of America 75, 1349–1362.
Deng, J.S., Sykes, L.R., 1996. Triggering of 1812 Santa Barbara earthquake by a
great San Andreas shock: implications for future hazards in southern California.
Geophysical Research Letters 23, 1155–1158.
Di Giovambattista, R., Tyupkin, Y.S., 2000. Spatial and temporal distribution of the
seismicity before the Umbria-Marche September 26, 1997 earthquakes. Journal of
Seismology 4, 589–598.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 104
Di Giovambattista, R., Tyupkin, Y.S., 2004. Seismicity patterns before the M=5.8
2002, Palermo Italy earthquake: seismic quiescence and accelerating seismicity.
Tectonophysics 384, 243–255.
Dieterich, J., 1994. A constitutive law for rate of earthquake production and its
application to earthquake clustering.Journal of Geophysical Research 99, 2601–2618.
Dieterich, J.H., Cayol, V., Okubo, P., 2002. The use of earthquake rate changes as a
stress meter at Kilauea volcano. Nature 408, 457–460.
Dodge, D.A., Beroza, G.C., Ellsworth, W.L., 1996. Detailed observations of
California foreshock sequences: implications for the earthquake initiation process.
Journal of Geophysical Research 101, 22,371–22,392.
DubesR. C. (1993). Handbook of Pattern Recognition and Computer Vision -
Cluster Analysis and Related Issues. World Scientific Publishing Co.
Ebel, J.E., Chambers, D.W., Kafka, A.L., Baglivo, J.A., 2007. Non-Poissonian
earthquake clustering and the hidden Markov model as bases for earthquake
forecasting in California. Seismological Research Letters 78, 57–65.
Ellsworth, W.I., Cole, A.T., 1997. A test of the characteristic earthquake hypothesis
for the San Andreas Fault in central California.Seismological Research Letters 68, 298.
Ellsworth, W.L., Lindh, A.G., Prescott, W.H., Herd, D.J., 1981. The 1906 San
Francisco Earthquake and the seismic cycle. In: Simpson, D.W., Richards, P.G. (Eds.),
Earthquake Prediction: An Internation Review. Maurice Ewing Ser., vol. 44.AGU,
Washington, D.C.
Eneva,M., Ben-Zion, Y., 1997. Techniques and parameters to analyze seismicity
patterns associated with large earthquakes. Journal of Geophysical Research 102,
17,785–17,795.
Evison, F.F., 1977. The precursory earthquake swarm. Physics of the Earth and
Planetary Interiors 15, 19–23.
Evison, F.F., Rhoades, D.A., 1997. The precursory earthquake swarm in New
Zealand: hypothesis tests II. New Zealand Journal of Geology and Geophysics 40, 537–
547.
Evison, F.F., Rhoades, D.A., 1999. The precursory earthquake swarm and the
inferred precursory quarm. New Zealand Journal of Geology and Geophysics 42, 229–
236.
Evison, F.F., Rhoades, D.A., 2001. Model of long-term seismogenesis.Annali di
Geofisica 44, 81–93.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 105
Evison, F.F., Rhoades, D.A., 2002. Precursory scale increase and long-term
seismogenesis in California and Northern Mexico. Annals of Geophysics 45, 479–495.
Evison, F.F., Rhoades, D.A., 2004. Demarcation and scaling of long-term
seismogenesis. Pure and Applied Geophysics 161, 21–45.
Faenza, L., 2005. Analysis of the spatio-temporal distribution of large earthquakes,
Ph. D. Thesis, Università degli Studi di Bologna, Alma Mater Studiorum, Bologna, Italy
available at: http://hdl.handle.net/2122/.
Faenza, L., Marzocchi, W., 2010. The Proportional Hazard Model as applied to the
CSEP forcasting area in Italy. Annals of Geophysics 53.doi:10.4401/ag-4759.
Faenza, L., Pierdominici, S., 2007.Statistical occurrence analysis and spatio-
temporal distribution of earthquakes in the Apennines Italy. Tectonophysics 439, 13–
31.
Faenza, L., Marzocchi, W., Boschi, E., 2003. A nonparametric hazard model to
characterize the spatio-temporal occurrence of large earthquakes; an application to
the Italian catalogue.Geophysical Journal International 155, 521. doi:10.1046/j.1365-
246X.2003.02068.x.
Faenza, L., Marzocchi, W., Lombardi, A.M., Console, R., 2004.Some insights into
the time clustering of large earthquakes in Italy. Annals of Geophysics 47, 1635–1640.
Faenza, L., Marzocchi, W., Serretti, P., Boschi, E., 2008. On the spatio-temporal
distribution of M70.+ worldwide seismicity. Tectonophysics 449, 97–104.
Faenza, L., Hainzl, S., Scherbaum, F., 2009.Statistical analysis of the central-Europe
seismicity. Tectonophysics 470, 195–204.
Falcone, G., Console, R.,Murru,M., 2010. Short-term and long-term earthquake
occurrence models for Italy: ETES, ERS and LTST. Annals of Geophysics
53.doi:10.4401/ag-4760.
Fayyad, U. et al. (1996). Advanced in Knowledge Discovery and Data Mining, MIT
Press, MA.
Fayyad U. M., Piatetski-Shapiro G., and Smith P. (1996).From data mining to
knowledge discovery.AAAI-MIT Press.
Fedotov, S.A., 1968. On the seismic cycle, feasibility of quantitative seismic zoning
and long-term seismic prediction.Seismic Zoning of the USSR, Nauka, Moscow, 121–
150 in Russian. English translation: Israel Program for Scientific Translations,
Jerusalem, 1976.
Feng, Y.D., Chi, X.B., Wang, W., Chen, J., Yin, X.C., 2008. Fast computing for LURR
of earthquake prediction. Pure and Applied Geophysics 165, 749–759.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 106
Field, E.H., 2007. Overview of the Working Group for the Development of Regional
Earthquake Likelihood Models (RELM). Seismological Research Letters 78, 7–16.
Frankel, A., 1995. Mapping seismic hazard in the central and eastern United
States. Seismological Research Letters 66, 8–21.
Frankel, A., Mueller, C., Barnard, T., Perkins, D., Leyendecker, E.V., Dickman, N.,
Hanson, S., Hopper, M., 1996. National seismic-hazard maps; documentation June
1996: U.S. Geological Survey Open-File Report 96–532, 110 pp.
Frankel, A., Mueller, C., Barnard, T., Perkins, D., Leyendecker, E.V., Dickman, N.,
Hanson, S., Hopper, M., 1997. Seismic hazard maps for Califonia, Nevada and Western
Arizona/Utah. USGS Open-File Report 97–130.
Frankel, A.D., Petersen, M.D., Mueller, C.S., Haller, K.M., Wheeler, R.L.,
Leyendecker, E.V., Wesson, R.L., Harmsen, S.C., Cramer, C.H., Perkins, D.M., Rukstales,
K.S., 2002. Documentation for the 2002 update of the national seismic hazard
maps.U.S. Geol. Surv.Open-File Rept. OFR-02-420, 33 pp.
Frohlich, C., 1987. Aftershocks and temporal clustering of deep earthquakes.
Journal of Geophysical Research 92, 13,944–13,956.
Frohlich, C., Davis, S., 1993. Teleseismic b-values: Or, much ado about 1.0. Journal
of Geophysical Research 98, 631–644.
Gardner, J.K., Knopoff, L., 1974. Is the sequence of earthquakes in southern
California with aftershocks removed Poissonian? Bulletin of the Seismological Society
of America 64, 1363–1367.
Geller, R.J., Jackson, D.D., Kagan, Y.Y., Mulargia, F., 1997. Enhanced: earthquakes
cannot be predicted. Science 275, 49–70.
Gentili, S., 2010.Distribution of Seismicity Before the larger earthquakes in Italy in
the time interval 1994–2004. Pure and Applied Geophysics 167, 933–958.
Gerstenberger, M.C., Rhoades, D.A., 2010. New Zealand Earthquake Forecast
Testing Centre. Pure and Applied Geophysics 167, 877–892.
Gerstenberger, M., Wiemer, S., Giardini, D., 2001.A systematic test of the
hypothesis that the b value varies with depth in California. Geophysical Research
Letters 28, 57–60.
Gerstenberger, M.C., Wiemer, S., Jones, L.M., Reasenberg, P.A., 2005. Real-time
forecasts of tomorrow's earthquakes in California. Nature 435, 328–331.
Gerstenberger, M.C., Jones, L.M., Wiemer, S., 2007. Short-term aftershock
probabilities: case studies in California. Seismological Research Letters 78, 66–77.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 107
Gibowitz, S. J. (1974). Frequency–magnitude depth and time relations for
earthquakes in Island Arc: North Island, New Zealand. Tectonophysics, 3(3), 283–297.
Gomberg, J., 1996. Stress/strain changes and triggered seismicity following the
Mw 7.3 Landers, California, earthquake. Journal of Geophysical Research 101, 751–
764.
Grant, L.B., Shearer, P.M., 2004. Activity of the offshore Newport–Inglewood Rose
Canyon Fault Zone, coastal southern California, from relocated microseismicity.
Bulletin of the Seismological Society of America 94, 747–752.
Grant, L.B., Sieh, K., 1994. Paleoseismic evidence of clustered earthquakes on the
San Andreas fault in the Carrizo Plain, California. Journal of Geophysical Research 99,
6819–6841.
Greenhough, J., Bell, A., Main, I.G., 2009. Comment on “Relationship between
accelerating seismicity and quiescence, two precursors to large earthquakes” by
Arnaud Mignan and Rita Di Giovambattista. Geophysical Research Letters 36, L17303.
doi:10.1029/2009GL039846.
Gross, S.J., Kisslinger, C., 1994. Tests of models of aftershock rate decay. Bulletin
of the Seismological Society of America 84, 1571–1579.
Gross, S., Rundle, J.B., 1998. A systematic test of time-to-failure analysis.
Geophysical Journal International 133, 57–64.
Grossman R. L., HornikM. F., and MeyerG.(2004). Data mining standards
initiatives. Communications of ACM, 45(8):59–61.
Guha S., Rastogi R., and Shim K. (1998). Cure: an efficient data clusteringmethod
for very large databases. ACM-SIGMOD Proceedings of the InternationalConference
Management of Data, pages 73–84.
Gulia, L., Wiemer, S., 2010. The influence of tectonic regimes on the earthquake
size distribution: a case study for Italy. Geophysical Research Letters 37,
L10305.doi:10.1029/2010GL043066.
Gulia, L., Wiemer, S., Schorlemmer, D., 2010. Asperity-based earthquake likelihood
models for Italy. Annals of Geophysics 53.doi:10.4401/ag-4843.
Gutenberg, B., & Richter, C. F. (1942).Earthquake magnitude, intensity, energy and
acceleration. Bulletin of the Seismological Society of America, 2(3), 163–191.
Gutenberg, B., Richter, C.F., 1944. Frequency of earthquakes in California. Bulletin
of the Seismological Society of America 34, 185–188.
Gutenberg, B., & Richter, C. F. (1954).Seismicity of the Earth.Princeton University.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 108
Haberman, R.E., 1981. Precursory seismicity patterns: stalking the mature seismic
gap. In: Simpson, D.W., Richards, P.G. (Eds.), Earthquake Prediction: An International
Review. Maurice Ewing Ser., vol. 4. AGU, Washington, D.C, pp. 29–42.
Hardebeck, J.L., Nazareth, J.J., Hauksson, E., 1998. The static stress change
triggering model: constraints from two southern California aftershock sequences.
Journal of Geophysical Research 103, 24,427–24,437.
Hardebeck, J.L., Felzer, K.R., Michael, A.J., 2008. Improved tests reveal that the
accelerating moment release hypothesis is statistically insignificant. Journal of
Geophysical Research 113, B08310.doi:10.1029/2007JB005410.
Harte, D., Li, D.-F., Vreede, M., Vere-Jones, D., 2003.Quantifying the M8 prediction
algorithm: reduction to a single critical variable and stability results. New Zealand
Journal of Geology and Geophysics 46, 141–152.
Harte, D., Li, D.-F., Vreede, M., Vere-Jones, D., Wang, Q., 2007.Quantifying the M8
algorithm: model, forecast, and evaluation. New Zealand Journal of Geology and
Geophysics 50, 117–130.
Helmstetter, A., Sornette, D., 2002. Subcritical and supercritical regimes in
epidemic models of earthquake aftershocks.Journal of Geophysical Research
107.doi:10.1029/2001JB001580.
Helmstetter, A., Sornette, D., 2003a. Importance of direct and indirect triggered
seismicity in the ETAS model of seismicity.Geophysical Research Letters 30,
1576.doi:10.1029/2003GL017670.
Helmstetter, A., Sornette, D., 2003b. Predictability in the epidemic-type aftershock
sequence model of interacting triggered seismicity. Journal of Geophysical Research
108, 2482.doi:10.1029/2003JB002485.
Helmstetter, A., Kagan, Y.Y., Jackson, D.D., 2005. Importance of small earthquakes
for stress transfers and earthquake triggering.Journal of Geophysical Research
110.doi:10.1029/2004JB003286.
Helmstetter, A., Kagan, Y.Y., Jackson, D.D., 2006. Comparison of short-term and
timeindependent earthquake forecast models for southern California. Bulletin of the
Seismological Society of America 96, 90–106.
Helmstetter, A., Kagan, Y.Y., Jackson, D.D., 2007. High-resolution time-
independent grid-based forecast for M≥5 earthquakes in California.Seismological
Research Letters 78, 78–86.
Hernández Orallo J., (2004). Introducción a la minería de datos. Prentice-Hall.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 109
Holliday, J.R., Nanjo, K.Z., Tiampo, K.F., Rundle, J.B., Turcotte, D.L., 2005.
Earthquake forecasting and its verification.Nonlinear Processes in Geophysics
12.doi:10.5194/npg-12-965-2005.
Holliday, J.R., Rundle, J.B., Tiampo, K.F., Klein, W., Donnellan, A., 2006a.
Systematic procedural and sensitivity analysis of the Pattern Informatics method for
forecasting large MN5 earthquake events in southern California. Pure and Applied
Geophysics doi:10.1007/s00024-006-0131-1.
Holliday, J.R., Rundle, J.B., Tiampo, K.F., Turcotte, D., 2006b. Using earthquake
intensities to forecast earthquake occurrence times.Nonlinear Processes inGeophysics
13, 585–593.
Holliday, J.R., Rundle, J.B., Tiampo, Turcotte, D., Klein, W., Tiampo, K.F., Donnellan,
A., 2006c. Space-time clustering and correlations ofmajor earthquakes.Physical Review
Letters 97 238501.
Holliday, J.R., Chen, C.-C., Tiampo, K.F., Rundle, J.B., Turcotte, D.L., Donnellan, A.,
2007. A RELM earthquake forecast based on Pattern Informatics. Seismological
Research Letters 78, 87–93.
Huang, Q., 2004. Seismicity changes associated with the 2000 earthquake swarm
in the Izu Island region. Journal of Asian Earth Sciences 26, 509–517.
Huang, Q., 2006. Search for reliable precursors: a case study of the seismic
quiescence of the 2000 western Tottori prefecture earthquake. Journal of Geophysical
Research 111, B04301.doi:10.1029/2005JB003982.
Huang, Q., Nagao, T., 2002.Seismic quiescence before the 2000 M=7.3 Tottori
earthquake.Geophysical Research Letters 29.doi:10.1029/2001GL013835 1578.
Huang, Q., Sobolev, G., 2001. Seismic quiescence prior to the 2000 M=6.8 Nemuro
Peninsula earthquake. Proceedings of the Japan Academy 77B, 1–6.
Huang, Q., Sobolev, G.A., Nagao, T., 2001. Characteristics of the seismic
quiescence and activation patterns before the M=7.2 Kobe earthquake, January 17,
1995.Tectonophysics 337, 99–116.
Huang, Q., Öncel, A.O., Sobolev, G.A., 2002. Precursory seismicity changes
associated with the Mw=7.4 1999 August 17 Izmit Turkey earthquake. Geophysical
Journal International 151, 235–242.
Hurukawa, N., Maung, P.M., 2011. Two seismic gaps on the Sagaing Fault,
Myanmar, derived from relocation of historical earthquakes since 1918. Geophysical
Research Letters 38, L01310. doi:10.1029/2010GL046099.
Imoto, M., 1991.Changes in the magnitude frequency b-value prior to large M-
greaterthan-or-equal-to-6.0 earthquakes in Japan. Tectonophysics 193, 311–325.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 110
Imoto, M., Hurukawa, N., Ogata, Y., 1990.Three-dimensional spatial variations of
bvalue in the Kanto area, Japan. Zishin 43, 321–326.
Ishibe, T., Shimazaki, K., 2009.Seismicity in source regions of large intraplate
earthquakes around Japan and the characteristic earthquake model. Earth, Planets and
Space 61, 1041–1052.
Ishimoto, M., & Iida, K. (1939). Observations sur les seismes enregistres par le
microsismographe construit derniereme. Bulletin Earthquake Research Institute, 17,
443–478.
Jackson, D.D., Kagan, Y.Y., 1999. Testable earthquake forecasts for 1999.
Seismological Research Letters 70, 393–403.
Jackson, D.D., Kagan, Y.Y., 2006. The 2004 Parkfield earthquake, the 1985
prediction, and characteristic earthquakes: lessons for the future. Bulletin of the
Seismological Society of America 96.doi:10.1785/012005082.
Jaumé, S.C., Sykes, L.R., 1999.Evolving towards a critical point: a review of
accelerating seismic moment/energy release prior to large and great earthquakes.
Pure and Applied Geophysics 155, 279–306.
Jiang, C., Wu, Z., 2006. Benioff strain release before earthquakes in China:
accelerating or not? Pure and Applied Geophysics 163, 1,965–1,976.
Jiang, C.S., Wu, Z.L., 2008. Retrospective forecasting test of a statistical physics
model for earthquakes in Sichuan–Yunnan region. Science in China, Series D: Earth
Sciences 51, 1401–1410.
Jiang, C., Wu, Z., 2010a. PI Forecast for the Sichuan-Yunnan Region: retrospective
test after the May 12, 2008, Wenchuan earthquake. Pure and Applied Geophysics
167.doi:10.1007/s00024-010-0070-8.
Jiang, C., Wu, Z., 2010b. Seismic moment release before the May 12, 2008,
Wenchuan earthquake in Sichuan of southwest China. Concurrency and Computation
22, 1784–1795.
Jiang, H., Hou, H., Zhou, H., Zhou, C., 2004. Region–time–length algorithm and its
application to the study of intermediate-short-term earthquake precursor in North
China.Acta Seismologica Sinica 17, 164–176.
Jiménez, A., Tiampo, K.F., Levin, S., Posadas, A., 2005. Testing the persistence in
earthquake catalogs: the Iberian Peninsula. Europhysics Letters.
doi:10.1209/epl/i2005-10383-8.
Jiménez, A., Posadas, A., Tiampo, K.F., 2008. Describing seismic pattern dynamics
by means of Ising cellular automata, nonlinear time series analysis in the
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 111
geosciences.Lecture Notes in Earth Sciences. Springer, Berlin, pp. 273–290.
doi:10.1007/978-3- 540-78938-3_12.
Jones, L.M., Hauksson, E., 1997. The seismic cycle in southern California: precursor
or response? Geophysical Research Letters 24, 469–472.
Jones, L.M., Molnar, P., 1979. Some characteristics of foreshocks and their
possible relationship to earthquake prediction and premonitory slip on faults.Journal
of Geophysical Research 84.
Jordan, T.H., 2006. Earthquake predictability, brick by brick. Seismological
Research Letters 77, 3–6.
Jordan, T.H., Jones, L.M., 2010. Operational earthquake forecasting: some
thoughts on why and how. Seismological Research Letters 81.
Kafka, A., 2002. Statistical analysis of the hypothesis that seismicity delineates
areas where future large earthquakes are likely to occur in the central and eastern
United States.Seismological Research Letters 73, 990–1001.
Kagan, Y.Y., 1997. Are earthquakes predictable? Geophysical Journal International
131, 505–525.
Kagan, Y.Y., 2002. Aftershock zone scaling.Bulletin of the Seismological Society
ofAmerica 922, 641–655.doi:10.1785/0120010172.
Kagan, Y., 2005. Combined Provisional Southern California Earthquake
Catalog.http://scec.ess.ucla.edu/~ykagan/relm_index.html 2005.
Kagan, Y.Y., Jackson, D.D., 1994. Long-term probabilistic forecasting of
earthquakes. Journal of Geophysical Research 99, 13,685–13,700.
Kagan, Y.Y., Jackson, D.D., 1995. New seismic gap hypothesis: five years after.
Journal of Geophysical Research 100, 3943–3959.
Kagan, Y.Y., Jackson, D.D., 2000. Probabilistic forecasting of earthquakes.
Geophysical Journal International 143, 438–453.
Kagan, Y.Y., Jackson, D.D., Rong, Y.F., 2006. A new catalog of southern California
earthquakes, 1800–2005. Seismological Research Letters 77, 30–38.
Kagan, Y.Y., Jackson, D.D., Rong, Y.F., 2007. A testable five-year forecast of
moderate and large earthquakes in southern California based on smooth seismicity.
Seismological Research Letters 78, 94–98.
Kalbeisch, J.D., Prentice, R.L., 1980. The Statistical Analysis of Failure Time
Data.New- York, 336 pp.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 112
Kanamori, H., 1981. The nature of seismicity patterns before large earthquakes.
Earthquake Prediction: An International Review, AGU Monograph. AGU, Washington,
D.C, pp. 1–19.
Kanamori, H., Anderson, D.L., 1975. Theoretical basis of some empirical relation in
seismology. Bulletin of the Seismological Society of America 65, 1073–1096.
Kaufman L. and RousseeuwP. J., (1990). Finding groups in Data: an Introduction to
Cluster Analysis. Wiley.
Keilis-Borok, V.I., Kossobokov, V.G., 1990.Times of increased probability of strong
earthquakes M≥7.5 diagnoes by algorithm M8 in Japan and adjacent territories.
Journal of Geophysical Research 95, 12,413–12,422.
Keilis-Borok, V.I., Knopoff, L., Kossobokov, V., Rotvain, I., 1990.Intermediate-term
prediction in advance of the Loma-Prieta earthquake. Geophysical Research Letters 17,
1461–1464.
Keilis-Borok, V.I., Shebalin, P.N., Zaliapin, I.V., 2002. Premonitory patterns of
seismicity months before a large earthquake: five case histories in Southern California.
PNAS 99, 16,562–16,567.
Kelleher, J.A., 1972. Rupture zones of large South American earthquakes and some
predictions. Journal of Geophysical Research 77, 2087–2103.
Kelleher, J.A., Sykes, L.R., Oliver, J., 1973. Possible criteria for predicting
earthquake locations and their applications to major plate boundaries of the Pacific
andCaribbean.Journal of Geophysical Research 78, 2547–2585.
Kenneth, P., Burnhaman, K.P., Anderson, D.R., 2002. Model Selection and
Multimodel Inference: A Practical Information–Theoretic Approach. Springer, New
York.
Kilburn, C.R.J., Voight, B., 1998. Slow rock fracture as eruption precursor at
Soufriere Hills volcano, Montserrat. Geophysical Research Letters 25, 3665–3668.
King, G.C.P., Bowman, D.D., 2003. The evolution of regional seismicity between
large earthquakes.Journal of Geophysical Research 108.doi:10.1029/2001JB000783.
King, G.C.P., Stein, R.S., Lin, J., 1994. Static stress changes and the triggering of
earthquakes. Bulletin of the Seismological Society of America 84, 935–953.
Kopanakis I. and Theodoulidis B. (2003).Visual data mining modeling techniquesfor
the visualization of mining outcomes. Journal of Visual Languagesand Computing,
14(6):543–589.
Kossobokov, V.G., 2006a. Quantitative earthquake prediction on global and
regional scales. In: Ismail-Zadosh (Ed.), Recent Geodynamics, Geortsk and Sustainable
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 113
Development in the Black Sea to Caspian Sea Region: Proceedings of the International
Workshop, pp. 32–50.
Kossobokov, V.G., 2006b. Testing earthquake prediction methods: the West Pacific
short-term forecast of earthquakes with magnitude MwHRV≥5.8. Tectonophysics 413,
25–31.
Kossobokov,V.G.,Romashkova, L.L., Keilis-Borok,V.I., 1999.
Testingearthquakepredictionalgorithms: statistically significant advance prediction of
the largest earthquakes in the Circum-Pacific, 1992–1997. Physics of the Earth and
Planetary Interiors 111, 187–196.
Kossobokov, V.G., Keilis-Borok, V.I., Turcotte, D.L., Malamud, B.D., 2000.
Implications of a statistical physics approach for earthquake hazard assessment and
forecasting. Pure and Applied Geophysics 157, 2323–2349.
Kossobokov,V.G., Romashkova, L.L., Panza,G.F., Peresan, A., 2002. Stabilizing
intermediateterm middle-range earthquake predictions.Journal of Seismology and
Earthquake Engineering 8, 11–19.
Kovacs, P., 2010. Reducing the risk of earthquake damage in Canada: lessons from
Haiti and Chile.ICLR Research Paper Series, 49.
Latchman, J.L., Morgan, F.D.O., Aspinall, W.P., 2008. Temporal changes in the
cumulative piecewise gradient of a variant of the Gutenberg–Richter relationship, and
the imminence of extreme events. Earth-Science Reviews 87, 94–112.
Latoussakis, J., Kossobokov, V.G., 1990. Intermediate term earthquake prediction
in the area of Greece—application of the algorithm M8. Pure and Applied Geophysics
134, 261–282.
Lee, K., & Yang, W. S. (2006). Historical seismicity of Korea. Bulletin of the
Seismological Society of America, 71(3), 846–855.
Lienkaemper, J.J., 2001. 1857 slip on the San Andreas fault southeast of Cholame,
California. Bulletin of the Seismological Society of America 91, 1659–1672.
Lienkaemper, J.J., Prescott, W.H., 1989. Historic surface slip along the San Andreas
Fault near Parkfield, California. Journal of Geophysical Research 94, 17,647–17,670.
Lockner, D.A., Beeler, N.M., 1999.Premonitory slip and tidal triggering of
earthquakes.Journal of Geophysical Research 104.doi:10.1029/1999JB900205.
Lolli, B., Gasperini, P., 2003. Aftershock hazard in Italy Part I: Estimation of time–
magnitude distribution model parameters and computation of probabilities of
occurrence. Journal of Seismology 7, 235–257.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 114
Lombardi, A.M., Marzocchi, W., 2010a. A double-branching model applied to
longterm forecasting of Italian seismicity (ML≥5.0) within the CSEP project. Annals of
Geophysics 53.doi:10.4401/ag-4762.
Lombardi, A.M., Marzocchi, W., 2010b. The ETAS model for daily forecasting of
Italian seismicity in the CSEP experiment. Annals of Geophysics 53.doi:10.4401/ag-
4848.
Ma, L., Zhuang, J., 2001. Relative quiescence within the Jiashi swarm in Xinjiang,
China: an application of the ETAS point process model. Journal of Applied Probability
38, 213–221.
Macqueen, J. B. (1968). Some methods for classification and analysis of
multivariate observations.In Proceedings of the 5th Berkeley symposium on
mathematical statistics and probability (pp. 281–297).
MacQueen J. (1995). The em algorithm for graphical association models
withmissing data. Computational Statistics and Data Analysis, 19:191–201.
Madahizadeh, R., Allamehzadeh, M., 2009.Prediction of aftershocks distribution
using artificial neural networks and its application on the May 12, 2008 Sichuan
earthquake.Journal of Seismology and Earthquake Engineering 12 (n. 10).
Main, I., 1999a. Applicability of the time-to-failure analysis to accelerated strain
before earthquakes and volcanic eruptions. Geophysical Journal International 139, F1–
F6.
Main, I. (moderator), 1999b. Is the reliable prediction of individual earthquakes a
realistic scientific goal?, Debate in Nature,
www.nature.com/nature/debates/earthquake/equake_frameset.html.
Martinez-Alvarez, F., Troncoso, A., Morales-Esteban, A., Riquelme, J. C. 2011. Computational intelligence techniques for predicting earthquakes. Lecture Notes in Artificial Intelligence, Vol. 6679, No. 2, pages 287-294.
Martínez-Álvarez, F., Troncoso A., Riquelme, J. C., Aguilar-Ruiz, J. S.. 2011. Lecture
Notes in Artificial Intelligence, Vol. 6679, No. 2, pages 287-294.
Martínez-Álvarez, F., Troncoso, A., Riquelme, J. M., Riquelme, J. C., 2007.
Discovering Patterns in Electricity Price Using Clustering Techniques. Proceedings of
the International Conference on Renewable Energies and Power Quality, 67-68.
Marzocchi, W., Lombardi, A.M., 2008. A double-branching model for earthquake
occurrence.Journal of Geophysical Research 113, B08317.doi:10.1029/2007JB005472.
Marzocchi, W., Sandri, L., Boschi, E., 2003. On the validation of earthquake-
forecasting models: the case of pattern recognition algorithms. Bulletin of the
Seismological Society of America 935, 1994–2004.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 115
Matsu'ura, T., Kase, Y., 2010.Late Quaternary and coseismic crustal deformation
across the focal area of the 2008 Iwate–Miyagi Nairiku earthquake. Tectonophysics
487,13–21.
Mao J. and Jain A.(1996). A self-organizing network for hyperellipsoidal clustering
(hec). IEEE Transactions on Neural Networks, 7:381–389.
McCann, W.R., Nishenko, S.P., Sykes, L.R., Krause, J., 1979. Seismic gaps and plate
tectonics: seismic potential for major boundaries. Pure and Applied Geophysics 117,
1082–1147.
Mignan, A., 2008. The Non-Critical Precursory Accelerating Seismicity Theory (NC
PAST) and limits of the power-law fit methodology. Tectonophysics 452.
doi:10.1016/j.tecto.2008.02.010.
Mignan, A., 2011. Retrospective on the Accelerating Seismic Release (ASR)
hypothesis: controversy and new horizons. Tectonophysics 505, 1–16.
Mignan, A., Di Giovambattista, R., 2008. Relationship between accelerating
seismicity and quiescence, two precursors to large earthquakes. Geophysical Research
Letters 35, L15306. doi:10.1029/2008GL035024.
Mignan, A., Tiampo, K.F., 2010. Testing the Pattern Informatics index on synthetic
seismicity catalogues based on the Non-Critical PAST. Tectonophysics 483, 255–
268.doi:10.1016/j.tecto.2009.10.023.
Mignan, A., Bowman, D.D., King, G.C.P., 2006a. An observational test of the origin
of Accelerating Moment Release before large earthquakes.Journal of Geophysical
Research 111, B11304.doi:10.1029/2006JB004374.
Mignan, A., King,G.C.P., Bowman,D.D., Lacassin, R.,Dmowska, R., 2006b. Seismic
activity in the Sumatra–Java region prior to the December 26, 2004Mw=9.0–9.3 and
March 28, 2005 Mw=8.7 earthquakes. Earth and Planetary Science Letters 244, 639–
654.
Mignan, A., King, G.C.P., Bowman, D.D., 2007. A mathematical formulation of
accelerating moment release based on the Stress Accumulation model. Journal of
Geophysical Research 112, B07308. doi:10.1029/2006JB004671.
Mogi, K., 1967. Regional variations in magnitude–frequency relation of
earthquakes. Bulletin of the Earthquake Research Institute, Tokyo University 5, 67–86.
Mogi, K., 1969. Some features of recent seismic activity in and near Japan 2,
Activity before and after large earthquakes. Bulletin of the Earthquake Research
Institute, Tokyo University 47, 395–417.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 116
Mora, P., Wang, Y.C., Yin, C., Place, D., Yin, X.C., 2002. Simulation of the load–
unload response ratio and critical sensitivity in the lattice solid model. Pure and
Applied Geophysics 159, 2525–2536.
Morales-Esteban, A., Martinez-Alvarez, F., Troncoso, A., Justlo, J.L., Rubio-
Escudero, C., 2010.Pattern recognition to forecast seismic time series. Expert Systems
with Applications 37, 8333–8342.
Morales-Esteban, A., Martinez-Alvarez, F., Reyes, J., 2013. Earthquake prediction in seismogenic areas of the Iberian Peninsula based on computational intelligence. Tectonophysics 593, 121-134.
Murru, M., Console, R., Falcone, G., 2009. Real time earthquake forecasting in
Italy. Tectonophysics 470, 214–223.
Nanjo, K.Z., 2010. Earthquake forecast models for Italy based on the RI algorithm.
Annals of Geophysics 53, 3.doi:10.4401/ag-4810.
Nanjo, K., Nagahama, H., Satomura, M., 1998. Rates of aftershock decay and the
fractal structure of active fault systems. Tectonophysics 287, 173–186.
Nanjo, K.Z., Holliday, J.R., Chen, C.-C., Rundle, J.B., Turcotte, D.L.,
2006a.Application of a modified pattern informatics method to forecasting the
locations of future large earthquakes in the central Japan. Tectonophysics 424, 351–
366. doi:10.1016/j.tecto.2006.03.043.
Nanjo, K.Z., Rundle, J.B., Holliday, J.R., Turcotte, D.L., 2006b. Pattern informatics
and its application for optimal forecasting of large earthquakes in Japan.Pure and
Applied Geophysics 163.doi:10.1007/s00024-006-0130-2.
Naylor, M., Greenhough, J., McCloskey, J., Bell, A.F., Main, I.G., 2009. Statistical
evaluation of characteristic earthquakes in the frequency–magnitude distributions of
Sumatra and other subduction zone regions. Geophysical Research Letters 36, L20303.
doi:10.1029/2009GL040460.
Nishenko, S.P., 1989. Circum-Pacific seismic potential 1989–1999. Pure and
Applied Geophysics 135, 169–259.
Nishenko, S.P., McCann, W.R., 1981. Seismic potential for the world's major plate
boundaries: 1981. In: Simpson, D.W., Richards, P.G. (Eds.), Earthquake Prediction, An
International Review. Maurice Ewing Series, 4. American Geophysical Union,
Washington, D.C., pp. 20–28.
Nuannin, P., Kulhanek, O., & Persson, L. (2005).Spatial and temporal b-value
anomalies preceding the devastating off coast of NW Sumatra earthquake of
December 26, 2004.Geophysical Research Letters, 32.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 117
Ogata, Y., 1983. Estimation of the Parameters in the Modified Omori Formula for
Aftershock Frequencies by the Maximum Likelihood Procedure. Journal of Physics of
the Earth 31, 115–124.
Ogata, Y., 1985a. Statistical models for earthquake occurrences and residual
analysis for point processes. Res. Memo. Tech. Rep., 288. Inst. of Stat. Math, Tokyo.
Ogata, Y., 1985b. Statistical models for earthquake occurrences and residual
analysis for point processes. Res. Memo. Tech. Rep., 288. Inst. of Stat. Math, Tokyo.
Ogata, Y., 1987. Long-term dependence of earthquake occurrences and statistical
models for standard seismic activity in Japanese. In: Saito, M. (Ed.), Mathematical
Seismology, vol. II. Inst. of Stat. Math, Tokyo, pp. 115–125.
Ogata, Y., 1988. Statistical models for earthquake occurrence and residual analysis
for point process. Journal of the American Statistical Association 83, 9–27.
Ogata, Y., 1989. Statistical model for standard seismicity and detection of
anomalies by residual analysis. Tectonophysics 169, 159–174.
Ogata, Y., 1998. Space-time point-process models for earthquake occurrences.
Annals of the Institute of Statistical Mathematics 50, 379–402.
Ogata, Y., 1999. Seismicity analysis through point-process modeling: a review.
Pure and Applied Geophysics 155, 471–507.
Ogata, Y., 2005. Synchronous seismicity changes in and around the northern Japan
preceding the 2003 Tokachi-oki earthquake of M8.0. Journal of Geophysical Research
110.doi:10.1029/2004JB003323 B08305.
Ogata, Y., Katsura, K., 1993. Analysis of temporal and spatial heterogeneity of
magnitude frequency distribution inferred from earthquake catalogues. Geophysical
Journal International 113, 727–738.
Ogata, Y., Zhuang, J., 2006. Space-time ETAS models and an improved extension.
Tectonophysics 413, 13–23.
Pace, B., Peruzza, L., Visini, F., 2010. LASSCI2009.2: layered earthquake rupture
forecast model for central Italy, submitted to the CSEP project. Annals of Geophysics
53.doi:10.4401/ag-4847.
Pacheco, J.F., Scholz, C.H., Sykes, L.R., 1992. Changes in frequency–size
relationship from small to large earthquakes. Nature 3557, 1–73.
Page, M.T., Carlson, J.M., 2006. Methodologies for earthquake hazard assessment:
model uncertainty and the WGCEP-2002 forecast. Bulletin of the Seismological Society
of America 96, 1624.doi:10.1785/0120050195.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 118
Pailoplee, S., Sugiyama, Y., Charusiri, P., 2009. Deterministic and probabilistic
seismic hazard analyses in Thailand and adjacent areas using active fault data. Earth,
Planets and Space 61, 1313–1325.
Pantosti, D., Pucci, S., Palyvos, N., DeMartini, P.N., D'Addezio, G., Collins, P.E.F.,
Zabci, C., 2008. Paleoearthquakes of the Duzce fault North Anatolian Fault Zone:
insights for large surface faulting earthquake recurrence. Journal of Geophysical
Research 113.doi:10.1029/2006JB004679.
Papazachos, B.C., Karakaisis, G.F., Papazachos, C.B., Scordilis, E.M., 2007.
Evaluation of the results for an intermediate-term prediction of the 8 January 2006
Mw=6.9 Cythera earthquake in the Southwestern Aegean. Bulletin of the Seismological
Society of America 97.doi:10.1785/0120060075.
Parsons, T., 2004.Recalculated probability of M≥7 earthquakes beneath the Sea of
Marmara, Turkey.Journal of Geophysical Research 109,
B05304.doi:10.1029/2003JB002667.
Parsons, T., Geist, E.L., 2009. Is there a basis for preferring characteristic
earthquakes over a Gutenberg–Richter distribution in probabilistic earthquake
forecasting? Bulletin of the Seismological Society of America 99, 2012–2019.
doi:10.1785/0120080069.
Peng, K.Y., Yin, X.C., Zhang, L.P., 2006. A statistical investigation of the earthquake
predictions using LURR.Pure and Applied Geophysics 163, 2353–2362.
Peresan, A., Kossobokov, V., Romashkova, L., Panza, G.F., 2005. Intermediate-term
middle-range earthquake predictions in Italy: a review. Earth-Science Reviews 69, 97–
132.
Peruzza, L., Pace, B., Cavallini, F., 2010. Error propagation in time-dependent
probability of occurrence for characteristic earthquakes in Italy.Journal of Seismology
14.doi:10.1007/s10950-008-9131-1.
Petersen, M.D., Cao, T., Campbell, K.W., Frankel, A.D., 2007. Time-independent
and time-dependent seismic hazard assessment for the state of California: uniform
California earthquake rupture forecast model. Seismological Research Letters 78.
doi:10.1785/gssrl.78.1.99.
Petersen, M.D., Frankel, A.D., Harmsen, S.C., Mueller, C.S., Haller, K.M., Wheeler,
R.L., Wesson, R.L., Zeng, Y., Boyd, O.S., Perkins, D.M., Luco, N., Field, E.H., Wills, C.J.,
Rukstales, K.S., 2008. Documentation for the 2008 Update of the United States
National Seismic Hazard Maps, U.S. Geological Survey Open-File Report 1128, 61 pp.
Piatetski-Shapiro G., Frawley W. J., and Matheus C. J. (1991).Knowledge discovery
in databases: an overview. AAAI-MIT Press.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 119
Pollitz, F.F., Sacks, I.S., 1997. The 1995 Kobe, Japan, earthquake: a long-delayed
aftershock of the offshore 1944 Tonankai and 1946 Nankaido earthquakes. Bulletin of
the Seismological Society of America 87, 1–10.
Pondrelli, S., Salimbeni, S., Morelli, A., Ekström, G., Olivieri, M., Boschi, E., 2010.
Seismic moment tensors of the April 2009, L'Aquila central Italy, earthquake sequence.
Geophysical Journal International 180, 238–242.
Press, F., Allen, C., 1995. Patterns of seismic release in the southern California
region.Journal of Geophysical Research 100, 6421–6430.
R Development Core Team, 2006. R: a language and environment for statistical
computing. Vienna, R Foundation for Statistical Computing. www.R-project.org 2006.
Ranalli, G. (1969). A statistical study of aftershock sequences. Annali di Geofisica,
22, 359–397.
Reasenberg, P.A., Jones, L.M., 1989. Earthquake hazard after a mainshock in
California. Science 243, 1,173–1,176.
Reasenberg, P.A., Jones, L.M., 1994. Earthquake aftershocks: update. Science 265,
1,251–1,252.
Reid, H.F., 1910. The mechanics of the earthquake, the California earthquake of
April 18, 1906.Report State Investig.Comm., vol. 2. Carnegie Inst., Washington.
Reyes, J., Morales-Esteban, A., Martínez-Álvarez, F., 2013. Neural networks to predict earthquakes in Chile. Applied Soft Computing. 13(2), 1314-1328.
Rhoades, D.A., 2007. Application of the EEPAS model to forecasting earthquakes
of moderate magnitude in Southern California. Seismological Research Letters 78, 110–
115.
Rhoades, D.A., 2010. Lessons and questions from thirty years of testing the
precursory swarm hypothesis. Pure and Applied Geophysics 167, 629–644.
Rhoades, D.A., Evison, F.F., 2004. Long-range earthquake forecasting with every
earthquake a precursor according to scale. Pure and Applied Geophysics 161, 47–71.
Rhoades, D.A., Evison, F.F., 2005. Test of the EEPAS forecasting model on the
Japan earthquake catalogue. Pure and Applied Geophysics 162, 1271–1290.
Rhoades, D.A., Gerstenberger, M.C., 2009. Mixture models for improved short-
term earthquake forecasting. Bulletin of the Seismological Society of America 99,636–
646. doi:10.1785/0120080063.
Richter, C.F., 1958. Elementary Seismology. Freeman, San Francisco.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 120
Rikitake, T., 1976.Earthquake Prediction. Elsevier, Amsterdam, Netherlands, pp. 7–
26.
Robinson, R., 2000. A test of the precursory accelerating moment release model
on some recent New Zealand earthquakes. Geophysical Journal International 140,
568–576.
Rockwell, T.K., Young, J., Seitz, G., Meltzner, A., Verdugo, D., Khatib, F., Ragona, D.,
Altangerel, O., West, J., 2003. 3,000 years of groundrupturing earthquakes in the Anza
Seismic Gap, San Jacinto fault, southern California: time to shake it up? Seismological
Research Letters 74, 236.
Romachkova, L.L., Kossobokov, V.G., Panza, G.F., Costa, G., 1998. Intermediate-
term predictions of earthquakes in Italy: algorithm M8. Pure and Applied Geophysics
152, 37–55. doi:10.1007/s000240050140.
Romanowicz, B., Rundle, J.B., 1993. On scaling relations for large earthquakes.
Bulletin of the Seismological Society of America 83, 1294–1297.
Romeo, R.W., 2005. Earthquake hazard in Italy, 2001–2030.Natural Hazards 36,
383.doi:10.1007/s11069-005-1939-1.
Rong, D., Li, Y., 2007. Estimation of characteristic parameters in region–time–
length algorithm and its application.Acta Seismologica Sinica 20, 265–272.
Rong, Y.-F., Jackson, D.D., Kagan, Y.Y., 2003.Seismic gaps and earthquakes. Journal
of Geophysical Research 108 (2471), 1–14. doi:10.1029/2002JB002334 ESE-6.
Ruina, A., 1983. Slip instability and state variable friction laws. Journal of
Geophysical Research 88, 10,359–10,370.
Rundle, J.B., 1989. Derivation of the complete Gutenberg–Richter magnitude–
frequency relation using the principle of scale invariance. Journal of Geophysical
Research 94, 12,337–12,342.
Rundle, J.B., Tiampo, K.F., Klein, W., Sá Martins, J., 2002. Self-organization in leaky
threshold systems: the influence of near mean field dynamics& its implications for
earthquakes, neurobiology and forecasting. PNAS 99 (Suppl. 1), 2463.
Rundle, J.B., Turcotte, D.L., Shcherbakov, R., Klein, W., Sammis, C., 2003. Statistical
physics approach to understanding the multiscale dynamics of earthquake fault
systems. Review of Geophysics 41, 1019.
Rydelek, P.A., Sacks, I.S., Scarpa, R., 1992. On tidal triggering of earthquakes at
Campi Flegrei, Italy. Geophysical Journal International 109, 125–137.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 121
Saichev, A., Sornette, D., 2006. Renormalization of branching models of triggered
seismicity from total to observable seismicity. European Physical Journal B: Condensed
Matter and Complex Systems 51, 443–459. doi:10.1140/epjb/e2006-00242-6.
Saleur, H., Sammis, C.G., Sornette, D., 1995. Discrete scale invariance, complex
fractal dimensions, and log-periodic fluctuations in seismicity. Journal of Geophysical
Research 17,661–17,677.
Sammonds, P.R., Meredith, P.G., Main, I.G., 1992. Role of pore fluids in the
generation of seismic precursors to shear fracture. Nature 359, 228–230.
Savage, J.C., 1991. Criticism of some forecasts of the National Earthquake
Prediction Evaluation Council. Bulletin of the Seismological Society of America 81, 862–
881.
Savage, J.C., 1992. The uncertainty in earthquake conditional probabilities.
Geophysical Research Letters 19, 709–712.
Scholz, C.H., 1968. The frequency–magnitude relation ofmicrofracturing in rock
and its relation to earthquakes. Bulletin of the Seismological Society of America 58,
399–415.
Scholz, C.H., 2002. The Mechanics of Earthquakes and Faulting, 2nd edition.
Cambridge Univ. Press, Cambridge.
Schorlemmer, D., Gerstenberger, M.C., 2007. RELM Testing Center. Seismological
Research Letters 78, 30–36.
Schorlemmer,D.,Wiemer,S.,Wyss,M., 2004a.EarthquakestatisticsatParkfield: 1.
Stationarity of b values.Journal of Geophysical Research
109.doi:10.1029/2004JB003234 B12307.
Schorlemmer, D., Wiemer, S., Wyss, M., Jackson, D.D., 2004b. Earthquake
statistics at Parkfield: 2. Probabilistic forecasting and testing. Journal of Geophysical
Research,
Solid Earth 109.doi:10.1029/2004JB003235 B12308.
Schorlemmer, D., Wiemer, S., Wyss, M., 2005.Variations in earthquake-size
distribution across different stress regimes. Nature 437, 539–542.
doi:10.1038/nature04094.
Schorlemmer, D., Gerstenberger, M.C., Wiemer, S., Jackson, D.D., Rhoades, D.A.,
2007. Earthquake likelihood model testing. Seismological Research Letters 78, 17–29.
Schwartz, D.P., Coppersmith, K.J., 1984. Fault behavior and characteristic
earthquakes: examples from Wasatch and San Andreas fault zones. Journal of
Geophysical Research 89, 5681–5698.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 122
Schwartz, D.P., Coppersmith, K.J., Swan III, F.H., Somerville, P., Savage, W.U.,
1981.Characteristic earthquakes on intraplate normal faults.Earthquake Notes 52, 71.
Shcherbakov, R., Turcotte, D.L., Rundle, J.B., Tiampo, K.F., Holliday, J.R., 2010.
Forecasting the locations of future large earthquakes: an analysis and verification. Pure
and Applied Geophysics 167, 743–749.
Shearer, R., 1985.Minutes of the National Earthquake Prediction Evaluation
Council NEPEC.U.S. Geol. Surv. Open-File Rept. 85–507.
Shi, Y., & Bolt, B. A. (1982).The standard error of the magnitude–frequency b-
value. Bulletin of the Seismological Society of America, 72(5), 1677–1687.
Sieh, K.E., 1984. Lateral offsets and revised dates of large earthquakes at Pallett
Creek, California. Journal of Geophysical Research 89, 7641–7670.
Sieh, K., Stuiver, M., Brillinger, D., 1989. A more precise chronology of earthquakes
produced by the San Andreas fault in southern California. Journal of Geophysical
Research 94, 603–623.
Smalley, R.F., Turcotte, D.L., Solla, S.A., 1985. A renormalization group approach to
the stick–slip behavior of faults. Journal of Geophysical Research 90, 1894–1900.
Smith, S.W., Sammis, C.G., 2004. Revisiting the tidal activation of seismicity with a
damage mechanics and friction point of view.Pure and Applied Geophysics 161, 2393–
2404.doi:10.1007/s00024-004-2571-9.
Sobolev, G.A., 2001. The examples of earthquake preparation in Kamchartka and
Japan. Tectonophysics 338, 269–289.
Sobolev, G.A., 2007. On applicability of the RTL prognostic algorithms and energy
estimation to Sakhalin seismicity. Journal of Volcanology and Seismology 1, 198–211.
Sobolev, G.A., Tyupkin, Y.S., 1997. Low-seismicity precursors of large earthquakes
in Kamchatka.Volcanology and seismology 18, 433–446.
Sobolev, G.A., Tyupkin, Y.S., 1999. Precursory phases, seismicity precursors, and
earthquake prediction in Kamchatka. Volc.Seismol. 20, 615–627.
Sobolev, G.A., Huang, Q., Nagao, T., 2002. Phases of earthquake's preparation and
by chance test of seismic quiescence anomaly. Journal of Geodynamics 33, 413–424.
Sri Lakshmi, S., Tiwari, R.K., 2009. Model dissection from earthquake time series: a
comparative analysis using modern non-linear forecasting and artificial neuralnetwork
approache. Computers & Geosciences 35, 191–204.
Stein, R.S., 1999. The role of stress transfer in earthquake occurrence. Nature 402,
605–609.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 123
Stein, S., Newman, A., 2004. Characteristic and uncharacteristic earthquakes as
possible artifacts: application to the New Madrid and Wabash seismic zones.
Seismological Research Letters 75, 173–187.
Stein, S., Friedrich, A., Newman, A., 2005. Dependence of possible characteristic
earthquakes on spatial sampling: illustration for the Wasatch seismic zone, Utah.
Seismological Research Letters 76, 432–436.
Stirling,M.W.,Wesnousky, S.G., 1997. Do historical rates of seismicity in southern
California require the occurrence of earthquakemagnitudes greater thanwould be
predicted from fault length? Bulletin of the Seismological Society of America 87, 1662–
1666.
Stirling, M.W., Wesnousky, S.G., Shimazaki, K., 1996. Fault trace complexity,
cumulative slip, and the shape of the magnitude frequency distribution for strike-slip
faults: a global survey. Geophysical Journal International 124, 833–868.
Stirling, M.W., McVerry, G.H., Berryman, K.R., 2002a. A new seismic hazard model
for New Zealand. Bulletin of the Seismological Society of America 92, 1878–1903.
Stirling, M., Rhoades, D., Berryman, K., 2002b. Comparison of earthquake scaling
relations derived from data of the instrumental and preinstrumental era. Bulletin of
the Seismological Society of America 92, 812–830.
Swan, F.H., Schwartz, D.P., Cluff, L.S., 1980. Recurrence of moderate to large
magnitude earthquakes produced by surface faulting on the Wasatch fault zone, Utah.
Bulletin of the Seismological Society of America 70, 1431–1462.
Sykes, L.R., 1971. Aftershock zones of great earthquakes, seismicity gaps, and
earthquake prediction for Alaska and the Aleutians. Journal of Geophysical Research
76, 8021–8041.
Sykes, L.R., Jaumé, S.C., 1990.Seismic activity on neighbouring faults as a long-
term precursor to large earthquakes in the San Francisco Bay area. Nature 348, 595–
599.
Sykes, L.R., Nishenko, S.P., 1984. Probabilities of occurrence of large plate
rupturing earthquakes for the San Andreas, San Jacinto, and Imperial faults, California,
1983–2003.Journal of Geophysical Research 89, 5905–5927.
Tanaka, S., 2010. Tidal triggering of earthquakes precursory to the recent Sumatra
megathrust earthquakes of 26 December 2004 Mw 9.0, 28 March 2005 Mw 8.6,and 12
September 2007 Mw 8.5. Geophysical Research Letters 37.doi:10.1029/2009GL041581
L02301.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 124
Tanaka, S., Ohtake, M., Sato, H., 2002.Evidence for tidal triggering of earthquakes
as revealed from statistical analysis of global data.Journal of Geophysical Research
107.doi:10.1029/2001JB001577.
Thatcher, W., 1989. Earthquake recurrence and risk assessment in circum-Pacific
seismic gaps. Nature 341, 432–434.
Thirumalai, D., Mountain, R.D., 1993. Activated dynamics, loss of ergodicity, and
transport in supercooled liquids. Physical Review E: Statistical, Nonlinear, and Soft
Matter Physics 47, 479–489.
Thirumalai, D., Mountain, R.D., Kirkpatrick, T.R., 1989. Ergodic behavior in
supercooled liquids and in glasses. Physical Review A 39, 3563–3574.
Tiampo, K.F., Rundle, J.B., McGinnis, S., Gross, S., Klein, W., 2002. Mean-field
threshold systems and phase dynamics: an application to earthquake fault systems.
Eur. Phys. Lett. 60, 481–487.
Tiampo, K.F., Rundle, J.B., Klein, W., 2006a. Premonitory seismicity changes prior
to the Parkfield and Coalinga earthquakes in southern California. Tectonophysics 413,
77–86.
Tiampo, K.F., Rundle, Klein,W., 2006b. Stress shadows determined from a phase
dynamicalmeasure of historic seismicity. Pure and Applied
Geophysics.doi:10.1007/200024-006-0134-y.
Tiampo, K.F., Rundle, J.B., Klein, W., Holliday, J., 2006c. Forecasting rupture
dimension using the pattern informatics technique. Tectonophysics 424, 367–376.
Tiampo, K.F., Bowman, D.D., Colella, H., Rundle, J.B., 2008. The Stress
Accumulation Method and the Pattern Informatics Index: complementary approaches
to earthquake forecasting. Pure and Applied Geophysics 165, 693–709.
doi:10.1007/s00024-008-0329-5.
Tiampo, K.F., Klein, W., Li, H.-C., Mignan, A., Toya, Y., Rundle, J.B., Chen, C.-C.,
2010. Ergodicity and earthquake catalogs: forecast testing and resulting implications.
Pure and Applied Geophysics 167.doi:10.1007/s00024-010-0076-2.
Toda, S., Stein, R.S., Sagiya, T., 2002. Evidence from the AD 2000 Izu islands
earthquake swarm that stressing rate governs seismicity. Nature 419, 58–61.
Toya, Y., Tiampo, K.F., Rundle, J.B., Chen, C., Li, H., Klein, W., 2009. Pattern
Informatics approach to earthquake forecasting in 3D. Concurrency and
Computation.doi:10.1002/ cpe.1531.
Trotta, J.E., Tullis, T.E., 2006. An endependent assessment of the load/unload
response ratio (LURR) proposed method of earthquake prediction. Pure and Applied
Geophysics 163, 2375–2387.doi:10.1007/s00024-006-0128-9.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 125
Turcotte, D.L., 1991. Earthquake prediction. Annual Review of Earth and Planetary
Sciences 19, 263–281.
Turcotte, D.L., 1997. Fractals and Chaos in Geology and Geophysics. Cambridge
University Press, Cambridge.
Turcotte, D.L., Newman, W.I., Shcherbakov, R., 2003. Micro and macroscopic
models of rock fracture. Geophysical Journal International 152, 718–728.
Utsu, T. (1965). A method for determining the value of b in a formula log n = a-bm
showing the magnitude–frequency relation for earthquakes. Geophysical bulletin of
Hokkaido University, 13, 99–103.
Utsu, T., Ogata, Y., Matsu'ura, R.S., 1995.The centenary of the Omori formula for a
decay law of aftershock activity. Journal of Physics of the Earth 43, 1–33.
Vázquez-Prada, M., González, Á., Gómez, J.B., Pacheco, A.F., 2003. Forecasting
characteristic earthquakes in a minimalist model. Nonlinear Processes in Geophysics
10, 565–571.
Vere-Jones, D., 1995. Forecasting earthquakes and earthquake risk. International
Journal of Forecasting 11, 503–538.
Vere-Jones, D., 2006. The development of statistical seismology: a personal
experience. Tectonophysics 413, 5–12.
Vidale, J.E., Agnew, D.C., Johnston, M.J.S., Oppenheimer, D.H., 1998. Absence of
earthquake correlation with earth tides: an indication of high preseismic fault stress
rate. Journal of Geophysical Research 103, 24,567–24,572.
Voight, B., 1989. A relation to describe rate-dependent material failure. Science
243, 200–203.
Wallace, R.E., 1970. Earthquake recurrence intervals on the San Andreas
Fault.Geological Society of America Bulletin 81, 2875–2890.
Wang, Y.C., Yin, C., Mora, P., Yin, X.C., Peng, K.Y., 2004a. Spatio-temporal scanning
and statistical test of the Accelerating Moment Release (AMR) model using Australian
earthquake data.Pure and Applied Geophysics 161, 2281–2293.
Wang, Y.C., Mora, P., Yin, C., Place, D., 2004b. Statistical tests of load–unload
response ratio signals by lattice solid model: Implication to tidal triggering and
earthquake prediction. Pure and Applied Geophysics 161, 1829–1839.
Ward, S.N., 2007. Methods for evaluating earthquake potential and likelihood in
and around California. Seismological Research Letters 78, 121–133.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 126
Weldon, R., Scharer, K., Fumal, T., Biasi, G., 2004. Wrightwood and the earthquake
cycle: what a long recurrence record tells us about how faults work. GSA Today 14, 4–
10.
Werner, M.J., Sornette, D., 2008. Magnitude uncertainties impact seismic rate
estimates, forecasts and predictability experiments. Journal of Geophysical
Research113.doi:10.1029/2007JB005427.
Werner, M.J., Helmstetter, A., Jackson, D.D., Kagan, Y.Y., Wiermer, S.,
2010.Adaptively smoothed seismicity earthquake forecasts for Italy.Annals of
Geophysics 53.doi:10.4401/ag-4839.
Wesnousky, S., 1994. The Gutenberg–Richter or characteristic earthquake
distribution, which is it? Bulletin of the Seismological Society of America 84,1940–
1959.
Westerhaus, M., Wyss, M., Yilmaz, R., Zschau, J., 2002. Correlatingvariations of b
values and crustal deformations during the 1990s may have pinpointed the rupture
initiation of the Mw=7.4 Izmit earthquake of 1999 August 17. Geophysical Journal
International 148, 139–152.
Wiemer, S., Benoit, J., 1996.Mapping the b-value anomaly at 100 km depth in the
Alaska and New Zealand subduction zones. Geophysical Research Letters 23,1557–
1560.
Wiemer, S., Katsumata, K., 1999.Spatial variability of seismicity parameters in
aftershock zones. Journal of Geophysical Research 104, 13,135–13,151.
Wiemer, S., Schorlemmer, D., 2007. ALM: an asperity-based likelihood model for
California. Seismological Research Letters 78, 134–140.
Wiemer, S., Wyss, M., 1994. Seismic quiescence before the Landers M=7.5 and Big
Bear M=6.5 1992 earthquakes. Bulletin of the Seismological Society of America 84,
900–916.
Wiemer, S., Wyss, M., 1997. Mapping the frequency–magnitude distribution in
asperities: an improved technique to calculate recurrence times? Journal of
Geophysical Research 102, 15,115–15,128.
Wiemer, S., Wyss, M., 2002.Mapping spatial variability of the frequency–
magnitude distribution of earthquakes. Advances in Geophysics 45, 259–302.
Wiemer, S., McNutt, S.R., Wyss, M., 1998.Temporal and three-dimensional spatial
analysis of the frequency–magnitude distribution. Geophysical Journal International
134, 409–421.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 127
Wiemer, S., Gerstenberger, M., Hauksson, E., 2002. Properties of the aftershock
sequence of the 1999 Mw 7.1 Hector Mine earthquake: implications for aftershock
hazard. Bulletin of the Seismological Society of America 92, 1227–1240.
Wiemer, S., Giardini, D., Fäh, D., Deichmann, N., Sellami, S., 2009. Probabilistic
seismic hazard assessment of Switzerland: best estimates and uncertainties. Journal of
Seismology 13, 449–478. doi:10.1007/s10950-008-9138-7.
Witten H. and Frank E. (2005). Data mining: Practical Machine Learning Toolsand
Techniques. Morgan Kaufmann Publishers.
Woessner, J., Christophersen, A., Zechar, J.D., Monelli, D., 2010. Building self-
consistent, short-term earthquake probability (STEP) models: improved strategies and
calibration procedures. Annals of Geophysics 53.doi:10.4401/ag-4812.
Working Group on California Earthquake Probabilities WG02, 2002. Earthquake
probabilities in the San Francisco Bay region: 2002–2031. U.S. Geol. Surv.Circular 1189.
Working Group on California Earthquake Probabilities WGCEP, 1988. Probabilities
of large earthquakes occurring in California on the San Andreas fault. U.S. Geol.
Surv.Open-File Rept. 62 pp.
Working Group on California Earthquake Probabilities WGCEP, 1990.Probabilities
of large earthquakes in the San Francisco Bay Region, California, U.S. Geol. Surv.Circ.
51 pp.
Working Group on California Earthquake Probabilities WGCEP, 1995. Seismic
hazards in Southern California: probable earthquakes, 1994 to 2024. Bulletin of the
Seismological Society of America 85, 379–439.
Working Group on California Earthquake Probabilities WGCEP, 2003. Earthquake
probabilities in the San Francisco Bay region: 2002 to 2031. U.S. Geol. Surv. Open-File
Rept. 03–214.
Working Group on California Earthquake Probabilities WGCEP, 2008. The uniform
California earthquake rupture forecast, version 2 UCERF 2, U.S. Geol. Surv. Open-File
Rept. 2007–1437.California Geological Survey Special Report, 203
http://pubs.usgs.gov/of/2007/1437/.104 pp.
Wu, Y.-H., Chen, C.-C., Rundle, J.B., 2008a.Detecting precursory earthquake
migration patterns using the pattern informatics method.Geophysical Research Letters
35.doi:10.1029/2008gl035215.
Wu, Y.-H., Chen, C.-C., Rundle, J.B., 2008b. Precursory seismic activation of the
Pingtung Taiwan offshore doublet earthquakes on 26 December 2006: a Pattern
Informatics analysis. Terrestrial Atmospheric and Oceanic Sciences 19, 743–749.
doi:10.3319/tao.2008.19.6.743pt.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 128
Wyss, M., 1997. Cannot earthquakes be predicted? Science 278, 487–490.
Wyss, M., Wiemer, S., 2000. Change in the probability for earthquakes in Southern
California due to the Landers magnitude 7.3 earthquake. Science 290, 1,334–1,338.
Wyss, M., Shimaziki, K., Urabe, T., 1996.Quantitative mapping of a precursory
seismic quiescence to the Izu-Oshima 1990 M6.5 earthquake, Japan. Geophysical
Journal International 127, 735–743.
Wyss, M., Sobolev, G., Clippard, J.D., 2004.Seismic quiescence precursors to two
M7 earthquakes on Sakhalin Island, measured by two methods. Earth, Planets and
Space 56, 725–740.
Yamashita, T., Knopoff, L., 1989.A model of foreshock occurrence. Geophysical
Journal International 96, 389–399.
Yin, C., Mora, P., 2006. Stress reorientation and LURR: implication for earthquake
prediction using LURR. Pure and Applied Geophysics 163, 2363–2373.
Yin, X.C., Chen, X.Z., Song, Z.P., Yin, C., 1995. A new approach to earthquake
prediction: the Load/Unload Response Ratio (LURR) theory. Pure and Applied
Geophysics 145, 701–715.
Yin, X.C., Wang, Y., Peng, K., Bai, Y., Wang, H., Yin, X.F., 2000. Development of a
new approach to earthquake prediction: load/Unload Response Ratio (LURR) theory.
Pure and Applied Geophysics 157, 2365–2383.
Yin, X.C., Zhang, L.P., Zhang, H.H., Yin, C., Wang, Y.C., Zhang, Y.X., Peng, K.Y., Wang,
H.T., Song, Z.P., Yu, H.Z., Zhaung, J.C., 2006. LURR's twenty years and its perspective.
Pure and Applied Geophysics 163, 2317–2341.
Yin, C., Xing, H.L., Mora, P., Xu, H.H., 2008a.Earthquake trend around Sumatra
indicated by a new implementation of LURR method. Pure and Applied Geophysics
165, 723–736.
Yin, X.C., Zhang, L.P., Zhang, Y.X., Peng, K.Y., Wang, H.T., Song, Z.P., Yu, H.Z.,
Zhang, H.H.,
Yin, C., Wang, Y.C., 2008b. The newest developments of load–unload response
ratio (LURR). Pure and Applied Geophysics 165, 711–722.
Yin, X.C., Zhang, L.P., Zhang, Y.X., Peng, K.Y., Wang, H.T., Song, Z.P., Zhang, X.T.,
Yuan, S.A., 2010. The peak point of LURR and its significance. Concurrency and
Computation 22, 1549–1558.
Yu, H.Z., Zhu, Q.Y., 2010. A probabilistic approach for earthquake potential
evaluation based on the load/unload response ratio method. Concurrency and
Computation 22, 1520–1533.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 129
Yu, H.Z., Shen, Z.K., Wan, Y.G., Zhu, Q.Y., Yin, X.C., 2006. Increasing critical
sensitivity of the Load/Unload Response Ratio before large earthquakes with identified
stress acclumulation pattern. Tectonophysics 428, 87–94.
Zechar, J.D., Jordan, T.H., 2008. Testing alarm-based earthquake predictions.
Geophysical Journal International 172, 715–724. doi:10.1111/j.1365-
246X.2007.03676.x.
Zechar, J.D., Jordan, T.H., 2010. Simple smoothed seismicity earthquake forecasts
for Italy. Annals of Geophysics 53.doi:10.4401/ag-4845.
Zechar, J.D., Zhuang, J., 2010. Risk and return: evaluating Reverse Tracing of
Precursors earthquake predictions. Geophysical Journal International 182, 1319–1326.
doi:10.1111/ j.1365-246X.2010.04666.x.
Zechar, J.D., Schorlemmer, D., Liukis, M., Yu, J., Euchner, F., Maechling, P., Jordan,
J., 2010.The collaboratory for the study of earthquake predictability perspective on
computational earthquake science. Concurrency and Computation 22, 1836–1847.
Zhang T, Ramakrishnan R., and Livny M. (1996). Birch: an efficient data clustering
method for very large databases. ACM-SIGMOD Proceedings of the International
Conference Management of Data, pages 103–114.
Zhang, Y.X., Yin, X.C., Peng, K.Y., 2004. Spatial and temporal variation of LURR and
its implication for the tendency of earthquake occurrence in Southern California.Pure
and Applied Geophysics 161, 2359–2367.
Zhang, Y.X., Yin, X.C., Peng, K.Y., Wang, H.T., Zheng, J.C., Wu, Y.J., Zhang, L.P.,
2006. LURRand the San SimeonM6.5 earthquake in 2003 and the seismic tendency in
CA. Pureand Applied Geophysics 163, 2343–2351.
Zhang, X.T., Zhang, Y.X., Yin, X.C., 2009. Study on the earthquake potential regions
in north and northeast China by Pattern Informatics method. Proceeding of the 2009
2nd International Conference on Biomedical Engineering and Informatics, v. 1–4, pp.
2266–2270.
Zhang, L.P., Yin,X.C., Liang, N.G., 2010. Relationship between load/unload
response ratio and damage variable and its application. Concurrency and Computation
22, 1534–1548.
Zhuang, J., Ogata, Y., Vere-Jones, D., 2004. Analyzing earthquake clustering
features by using stochastic reconstruction.Journal of Geophysical Research 109,
B05301.doi:10.1029/2003JB002879.
Zhuang, J., Chang, C., Ogata, Y., Chen, Y., 2005. A study on the background and
clustering seismicity in the Taiwan region by using point process models.Journal of
Geophysical Research 110.doi:10.1029/2004JB003157 B05S18.
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos
Autor: Ricardo – León Talavera Llames
Página 130
Zollo, A., Marzocchi, W., Capuano, P., Lomaz, A., & Iannaccone, G. (2002). Space
and time behavior of seismic activity at Mt. Vesuvius volcano, outhern Italy. Bulletin of
the Seismological Society of America, 92(2), 625–640.