130
Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos Autor: Ricardo – León Talavera Llames Página 1 Escuela Técnica Superior de Ingeniería Informática Máster Oficial en Ingeniería y Tecnología del Software TRABAJO FIN DE MÁSTER Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos. Autor: D. Ricardo - León Talavera Llames Tutores: Dr. José C. Riquelme Santos Dr. Francisco Martínez Álvarez Convocatoria de Junio Curso 2012/2013

Escuela Técnica Superior de Ingeniería Informática Máster ...eps.upo.es/martinez/TFM/TFM_Talavera_2013.pdf · Se le llama así por encontrarse el territorio continental junto

  • Upload
    vuhanh

  • View
    219

  • Download
    0

Embed Size (px)

Citation preview

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 1

Escuela Técnica Superior de Ingeniería Informática

Máster Oficial en Ingeniería y Tecnología del Software

TRABAJO FIN DE MÁSTER

Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos.

Autor:

D. Ricardo - León Talavera Llames

Tutores:

Dr. José C. Riquelme Santos

Dr. Francisco Martínez Álvarez

Convocatoria de Junio

Curso 2012/2013

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 2

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 3

Agradecimientos

Comenzaré este apartado dando las gracias a Pepe, por la gran oportunidad que

me ha brindado, totalmente desinteresada, de trabajar en este ámbito que

desconocía, y por darme la posibilidad de conocer otro campo que, de otra manera, no

hubiera podido aprender durante este curso, animando esa parte investigadora de mí

y a plantearla como una posibilidad real de futuro.

A Paco, que comenzó siendo profesor, y ha acabado siendo, para mi suerte, una

persona importante en mi vida, un gran amigo. No hay palabras para describir la

eterna gratitud que le profeso, autentico artífice de que este hoy donde me encuentro

ahora. Siempre dispuesto a sacrificarse y a ayudar con cualquiera que lo necesite.

Gracias de corazón.

A los compañeros del máster, porque aunque éramos dos grupos, hemos

conseguido sentirnos como uno sólo por la solidaridad y, valga la redundancia,

compañerismo de cada uno de ellos, siempre dispuestos a ayudar en lo que se

necesitara.

A mis compañeros de equipo de trabajo, Myriam y Javi, por su enorme talento y

aún más paciencia, fuente de inspiración y de los que también he aprendido mucho.

A “los mosqueteros”, Antonio, Guillermo y Matías, sin cuyo apoyo y amistad no

hubiera sobrellevado de igual forma esas largas horas en el búnker. Su sencillez,

amabilidad, optimismo y humor han hecho que este curso haya sido la gran

experiencia que ha resultado ser y cuya amistad sé que tendré siempre.

A mi familia, por su apoyo incondicional, no sólo ahora sino durante toda mi vida.

Su fe ciega en mí me ha hecho levantarme cuando caía. También por su cariño

conmigo sin emitir una queja. Ellos son los grandes protagonistas en todas mis metas

alcanzadas.

A mis amigos, porque a pesar que a veces nos separen kilómetros de distancia,

siempre los he sentido cerca, y con su cariño y comprensión, han sido el hombro

donde apoyarme cuando me han faltado las fuerzas.

A los profesores de este máster, por su dedicación e ilusión en cada materia

impartida, y que han posibilitado abrirnos aún más las puertas de ese futuro, un tanto

oscuro, que nos aguarda.

Y a todas las personas que han pasado este año por mi vida, porque en mayor o

menor medida, han influido en mi persona para que llegue hasta este momento.

Gracias a todos.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 4

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 5

Resumen

Durante la realización de este trabajo se ha realizado un proceso completo de

Kwnoledge Discovery in Databases (KDD) en datos de origen sísmico. En concreto, se

han analizado las series temporales registradas en los últimos once años en la región

de Chile, caracterizada por su gran actividad sísmica a lo largo de la historia. En

particular se ha desarrollado una metodología para el reconocimiento de patrones

precursores de grandes terremotos en Chile. Para ello se ha realizado un estudio

exhaustivo de los antecedentes existentes hasta el momento en este campo y se ha

aplicado el proceso de KDD sobre los datos como sigue:

1. Adquisición de los datos, masiva y de un periodo de tiempo determinado, según

unos criterios que se explican en detalle.

2. Limpieza de los datos. Debido a la gran cantidad de los mismos, es posible

encontrar datos no completos o sesgados, por lo que se han eliminado atributos

con significancia mínima así como aquellos que ofrecían errores o valores

ausentes.

3. Generación de nuevos atributos, con la ayuda de personal experto en sismología.

Se ha incorporado información geológica como datos de entrada de los sistemas

utilizados.

4. Selección de atributos significativos, mediante técnicas que miden el peso

aportado por cada uno de los que forman la base de datos.

5. Aplicación de algoritmos de minería de datos, para el reconocimiento de patrones,

centrándose en clustering y más en concreto en la técnica de K-means.

El estudio se ha enfocado en cuatro zonas del país de Chile, Talca, Pichilemu,

Santiago y Valparaíso, obteniéndose unos resultados y valoraciones que serán

expuestos a lo largo del mismo.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 6

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 7

Contenido

Capítulo 1 . Introducción ............................................................................................................... 8

Capítulo 2 . Estado del arte ......................................................................................................... 11

2.1 Resumen ..................................................................................................................... 11

2.2 Introducción ................................................................................................................. 11

2.3 Modelos de procesos físicos ....................................................................................... 15

2.4 Modelos de sismicidad arreglados .............................................................................. 36

2.5 Conclusiones ............................................................................................................... 53

Capítulo 3 . Descubrimiento de conocimiento a partir de grandes bases de datos (KDD)......... 58

3.1 Introducción ................................................................................................................. 58

3.2 Adquisición de datos ................................................................................................... 60

3.3 Preprocesamiento y transformación ............................................................................ 61

3.4 Minería de datos .......................................................................................................... 62

3.5 Evaluación ................................................................................................................... 76

3.6 Interpretación ............................................................................................................... 77

Capítulo 4 . Reconocimiento de patrones precursores de grandes sismos ............................... 80

4.1 Adquisición de datos ................................................................................................... 80

4.2 Preprocesamiento y transformación ............................................................................ 81

4.3 Minería de datos .......................................................................................................... 83

Capítulo 5 . Resultados ............................................................................................................... 88

5.1 Resultados Talca ......................................................................................................... 88

5.2 Resultados Pichilemu .................................................................................................. 90

5.3 Resultados Santiago ................................................................................................... 91

5.4 Resultados Valparaíso ................................................................................................ 93

Capítulo 6 . Conclusiones ........................................................................................................... 98

Capítulo 7 . Referencias ............................................................................................................ 100

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 8

Capítulo 1 . Introducción

El hombre es el único animal racional que existe en la naturaleza. Y como tal, hay

un aspecto que siempre le ha atraído por encima de cualquier otro, la búsqueda de

conocimiento. La principal razón para esto se puede demostrar con sólo dos frases: “El

conocimientos es poder” y “Sólo se teme lo que no se conoce”. Por lo tanto, esta ha

sido siempre su meta, y no se ha parado ante nada para conseguirlo. Ni siquiera ante

su propia antítesis, el desconocimiento. Es algo que se encuentra en la naturaleza de

todos y cada uno de los seres humanos.

Así, por ejemplo, surgieron los mitos y las leyendas. El hombre encontraba

fenómenos que no podía explicar o no alcanzaba a comprender y creaba estas

historias para intentar darles explicación.

Y uno de estos fenómenos que no llegaba a entender eran los terremotos. La Real

Academia de la Lengua Española (RAE) define literalmente a los terremotos como

“sacudida del terreno, ocasionada por fuerzas que actúan en lo interior del globo”

(http://lema.rae.es/drae/?val=terremoto). Aunque no es una definición completa,

define a grandes rasgos a tal sorprende evento. Pero este conocimiento no ha sido tan

obvio a lo largo de la historia. El estudio de seísmos es muy antiguo, y se han

encontrado registros sobre estos con una antigüedad de 3000 años en China, de 1600

años en Japón y Europa oriental e incluso en códices mayas y aztecas en América. Pero

que se registraran no quiere decir que se comprendieran. Así, han sido muchas las

culturas que lo atribuían a intervenciones divinas asociada al castigo o la ira de estos

seres superiores. Por poner dos ejemplos, en Japón se atribuía a un gran pez gato

llamado Namazu, que yacía bajo tierra y era controlado por un dios. Cuando este se

descuidaba, el pez se movía y con fuertes sacudidas de su cola hacía que la tierra

temblara. En la mitología griega sin embargo, se atribuía a Poseidón, el dios del mar,

quién hacía tambalear a Atlas, el cual sostenía el mundo sobre sus hombros, y

generaba terremotos.

Hoy en día, gracias a los grandes avances científicos en todos los campos, se ha

podido explicar detalladamente el origen de estos sorprendentes fenómenos,

registrando todo tipo de información acerca de ellos.

Así, se plantea la posibilidad de usar esta gran cantidad de información para

intentar entenderlos, y más importante aún, intentar predecirlos. Pues aquí se

encuentra otra de las obsesiones del ser humano, el conocimiento del futuro.

Anticipar acontecimientos y actuar en consecuencia ha sido el objetivo de muchos

científicos a lo largo de toda la historia. El hombre siempre ha querido conocer el

futuro. ¿Quién podría negarse a contemplar semejante visión? Sobre todo para actuar

en base a ello y antes de que los hechos así se dieran

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 9

Es esta idea, la de la visión del futuro, la que llevo al hombre a desarrollar sistemas

de simulación. Estas ofrecen una idea general de cómo se desarrollará un proceso así

como entender qué factores pueden influir sobre este y como lo harán, anticipando

medidas y ayudando a la toma de decisiones, con el respectivo ahorro, no solo de

coste, sino de tiempo y esfuerzo, que esto conlleva, Pues no se debe olvidar que los

terremotos son fenómenos que provocan grandes pérdidas tanto humanas como

económicas. No en vano terremoto de mayor magnitud registrada ocurrió en Chile, en

1960 y alcanzo una M=9,5. Sus efectos fueron 962 muertos y 1410 desparecidos,

además de dañar en algunas de las ciudades cercanas al epicentro, el 65% de las

viviendas.

Actualmente se cuenta con grandes cantidades de información almacenadas,

pero ¿cómo extraer alguna conclusión de esos datos? ¿Siguen algún patrón? ¿Es

posible predecirlos?

Es en este punto donde se centra el objeto de este estudio. Con la ayudad de

técnicas estadísticas, inteligencia artificial e informática, se intentará dar una respuesta

en este campo. Para ello, el trabajo de este estudio se apoyará en el proceso KDD (del

inglés, Knowledge Discovery in Datatabases) o descubrimiento de información en

bases de datos. Cómo se explicará más detalladamente más adelante, este proceso

consiste en el descubrimiento de existencia de información valiosa pero desconocida

con anterioridad. Consta de varias fases, como son la adquisición de datos,

preprocesamiento y transformación, minería de datos, evaluación e interpretación. Se

hará bastante hincapié en la etapa de minería de datos, pues se considera la más

importante para el descubrimiento de información.

Se ha escogido Chile debido a que es considerado uno de los países más activos,

en términos sísmicos, debido en gran parte por su ubicación en el Cinturón de fuego

del Pacífico. Se le llama así por encontrarse el territorio continental junto a la zona de

subducción de la placa de Nazca, bajo la placa Sudamericana, mientras que al sur, la

subducción se produce por la placa Antártica que se mueve a menor velocidad.

Se plantean, por tanto, los siguientes objetivos en este trabajo:

1. Estudio de datos de origen sismológico de uno de los países con mayor

actividad del mundo: Chile. Se ha contado con el apoyo del Instituto Geográfico

de Chile que, amablemente, ha proporcionado el catálogo de datos ya

preprocesado.

2. Desarrollo de una metodología para el descubrimiento de patrones precursores

de terremotos en cuatro regiones chilenas. Estas regiones se seleccionaron

debido a su alta actividad sísmica y a las diferentes propiedades geofísicas que

éstas presentan, con el fin de obtener resultados lo más generalizables posible.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 10

3. Dejar patente la utilidad de la minería de datos en un campo tradicionalmente

dominado por sismólogos.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 11

Capítulo 2 . Estado del arte

2.1 Resumen

Los sistemas de terremotos de fallas interactúan sobre un amplio espectro de

escalas espaciales y temporales, y en años recientes, estudios sobre la sismicidad

regional en una gran variedad de regiones han producido un gran número de nuevas

técnicas para la predicción de terremotos basados en la sismicidad. A pesar de que

una gran variedad de supuestos físicos y aproximaciones científicas son incorporados

en varias metodologías, todos ellos se esfuerzan en replicar con precisión las

estadísticas y propiedades de los registros sísmicos históricos e instrumentales. Como

resultado, los últimos diez años han visto progresos significativos en el campo de la

predicción de terremotos basados en la sismicidad a medio y corto plazo. Estos

incluyen acuerdos generales en la necesidad de tests prospectivos e intentos de éxito

para estandarizar los métodos de evaluación y la apropiada hipótesis nula.

Aquí diferenciamos los enfoques predominantes en los modelos basados en

técnicas para identificar procesos físicos y aquellas que filtran o arreglan/suavizan la

sismicidad. La comparación de los métodos sugiere que mientras los modelos sísmicos

arreglados/suavizados proporcionan mejor capacidad de predicción en periodos de

tiempo más largos, se logra una mayor probabilidad durante periodos de tiempo más

cortos con métodos que integran técnicas estadísticas con el conocimiento de los

procesos físicos, tales como el modelo de secuencia de réplica de tipo epidémico (ETAS

del inglés epidemic-type aftershock sequence) o los relacionados con cambios en la

variable b, por ejemplo. En general, mientras ambas clases de predicción basados en

sismicidad están limitadas por el relativamente corto periodo de tiempo disponible

para el catálogo instrumental, se han hecho importantes avances en nuestra

comprensión de las limitaciones y el potencial de la predicción de terremotos basados

en la sismicidad. Existe un acuerdo general entre predicciones a corto plazo,

entendiéndose esto como días o semanas, y predicciones a largo plazo sobre periodos

de entre 5 a 10 años. Este progreso reciente sirve para iluminar la naturaleza crítica de

las diferentes escalas temporales intrínsecas al proceso de los terremotos y la

importancia de datos sísmicos de alta calidad para la correcta cuantificación del peligro

sísmico en función del tiempo.

2.2 Introducción

El impacto que los grandes terremotos causan para la vida y la propiedad es

potencialmente catastrófico. En 2010, el terremoto de magnitud 7.0 en Haití, fue el

quinto más mortal registrado, matando a más de 200.000 personas y causando daños

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 12

valorados en unos 8 billones de dólares (Cavallo et al., 2010). El daño económico

directo del terremoto de magnitud 8.8 que sacudió Chile en febrero de 2010 alcanzó

unos 30 billones de dólares, o lo que es lo mismo, el 18% de la producción económica

anual de Chile (Kovacs, 2010). Como resultado del impacto regional y nacional de

grandes terremotos, las investigaciones en sus predicciones se han realizado desde

hace casi 100 años, con intervalos marcados por el optimismo, el escepticismo y el

realismo (Geller et al., 1997; Jordan, 2006; Kanamori, 1981; Wyss, 1997).

Hace más de diez años, esta controversia eclosionó en lo que ha llegado a ser

conocido en la comunidad como debates sobrela naturaleza(Main, 1999b).

Provocado en gran medida por la aparente falta de éxito del experimento

predictivo de Parkfield (Bakun et al., 2005), se centró en última instancia en la

naturaleza de los propios terremotos y si podrían ser intrínsecamente impredecibles. Si

bien esta cuestión aún no se ha decidido, marcó un punto de inflexión en el campo de

la ciencia de los terremotos. Tal es así que la predicción de terremotos hoy día, o la

evaluación del peligro sísmico en función del tiempo, con errores y probabilidades

asociados, es ahora el estándar en la investigación predictiva de terremotos.

Al mismo tiempo, una gran cantidad de datos sísmicos a niveles de magnitud

progresivamente más pequeños, han sido registrados durante los últimos 40 años. En

parte relacionado con el objetivo original de esfuerzos tales como el experimento de

Parkfield y en parte por el reconocimiento de que hay todavía mucho que aprender

sobre el proceso subyacente, particularmente después de que la predicción de

Parkfield pasará sin ningún terremoto (Bakun et al., 2005).

Si bien se ha reconocido desde hace tiempo que la agrupación temporal y espacial

es evidente en los datos sísmicos, muchas de las investigaciones asociadas con estos

patrones en los primeros años se centraron en una fracción relativamente pequeña de

los eventos principalmente en las magnitudes más grandes (Kanamori, 1981).

Algunos ejemplos incluyen (pero no se limitan) terremotos característicos y

brechas sísmicas (Bakun et al., 1986; Ellsworth and Cole, 1997; Haberman, 1981; Swan

et al., 1980), Mogi donuts y la inactividad precursora (Mogi, 1969; Wyss et al., 1996;

Yamashita and Knopoff, 1989), agrupaciones temporales (Dodge et al., 1996; Eneva

and Ben-Zion, 1997; Frohlich, 1987; Jones and Hauksson, 1997; Press and Allen, 1995),

secuencias de réplicas (Gross and Kisslinger, 1994; Nanjo et al., 1998), transferencia de

tensión y el terremoto desencadenante a grandes distancias (Brodsky,2006; Deng and

Sykes, 1996; Gomberg, 1996; King et al., 1994; Pollitz and Sacks, 1997; Stein, 1999),,

relaciones de escala (Pacheco et al., 1992; Romanowicz and Rundle, 1993; Rundle,

1989; Saleur et al., 1995),, reconocimiento de patrones (Keilis-Borok and Kossobokov,

1990; Kossobokov et al., 1999), y análisis del tiempo transcurrido hasta el fallo

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 13

(Bowman et al., 1998; Brehm and Braile, 1998; Bufe and Varnes, 1993; Jaumé and

Sykes, 1999).

Aunque este cuerpo de la investigación representa importantes intentos para

describir estos patrones característicos usando funciones de densidad de probabilidad

empírica, se vio obstaculizado por las pobres estadísticas asociadas con el pequeño

número de eventos moderados a grandes, ya sea disponible o considerado para el

análisis.

La disponibilidad de nuevos y más grandes conjuntos de datos junto con los

avances computacionales que facilitaban el análisis de complejas series temporales,

incluyendo simulaciones, pruebas estadísticos rigurosos y técnicas de filtrado

innovadoras, dieron un nuevo impulso a la predicción de terremotos cuando el campo

fue aparentemente polarizado por el tema (Nature Debates, Debate on earthquake

forecasting, http://www.nature.com/nature/debates/earthquake, Main, 1999b;

Jordan, 2006).

En 2002, se publicó la primera predicción prospectiva usando datos de terremotos

de baja magnitud (Rundle et al., 2002). Este hecho fue seguido por un renovado

interés en metodologías basadas en la sismicidad y generaron nuevos esfuerzos para

lograr una mejor definición y pruebas de estas técnicas.

Iniciativas importantes en la validación y en el área de pruebas de la predicción de

terremotos incluyen el grupo de trabajo en modelos de probabilidad de terremotos

regional (RELM del inglés Regional Earthquake Likelihood Models) así como The

Collaboratory on the Study of Earthquake Predictability (CSEP) ambos fundados

después del 2.000 (Field, 2007; Gerstenberger and Rhoades, 2010; Zechar et al., 2010).

Aunque una serie de fenómenos precursores potenciales existen además de los

asociados con cambios en la seismicidad, incluyendo precursores de inclinaciones y

tensiones, señales electromagnéticas, fenómenos hidrológicos y emisiones químicas

(Scholz, 2002; Turcotte, 1991), limitamos el análisis a las técnicas predominantes en la

predicción basadas en la seismicidad activamente investigada en los últimos 10 años.

Algunos métodos no analizados aquí incluyen técnicas de predicción asociadas con

interacciones de terremotos como las precursoras a los cambios de velocidad sísmica

(por ejemplo, Crampin and Gao, 2010) o estudios de transferencias de tensión (ver

King et al., 1994; Stein, 1999; y otros).

Aquí se revisa el estado actual de las metodologías de predicción basados en

sismicidad y el progreso realizado en el campo desde el debate de la naturaleza de

1999.

Para no alargar este trabajo en demasía, se limitará el análisis a las metodologías

que dependen del catálogo instrumental para su fuente de datos, el cual intenta

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 14

producir predicciones que son limitadas en tiempo y espacio de alguna manera

cuantificable.

Como resultado, estos métodos principalmente producen predicciones a medio

plazo, en el sentido de años, aunque se incluye un pequeño subconjunto que se basa

en estadísticas de réplicas para generar predicciones a corto plazo del orden de días.

Existen Debates importantes en otra parte del estándar apropiado para suministrar

una previsión de terremotos comprobable (Jackson and Kagan, 2006; Jordan, 2006), así

como la eficacia de varias metodologías de pruebas de predicciones y su evaluación

(por ejemplo, Field, 2007; Gerstenbergerand Rhoades, 2010; Schorlemmer et al., 2007;

Vere-Jones, 1995; Zechar, et al., 2010).

Si bien no hay ningún intento aquí para comprobar la fiabilidad de estas técnicas

de predicción entre ellas o contra una hipótesis nula en particular con estadísticas

rigurosas, en algunos casos se hacen intentos para comparar ya sea una hipótesis nula

de Poisson o una hipótesis nula que incluya la agrupación espacial y temporal como en

el caso del modelo de predicción de la intensidad relativa (RI del inglés relative

intensity) (Holliday et al., 2005) o el modelo de ETAS (por ejemplo Vere-Jones, 1995).

Se discutirá brevemente dichos esfuerzos o la falta de estos, particularmente en

aquellos caso donde el método no ha sido presentado formalmente para evaluaciones

independientes.

Se han separado los métodos discutidos aquí en dos categorías diferentes, aunque

hay algunos solapamientos inevitables. Este trabajo comienza con una revisión del

conjunto de metodologías de predicción basadas en sismicidad, cada una asumiendo

un mecanismo físico en particular, que está asociado con la generación de grandes

terremotos y sus precursores y realiza un análisis detallado en el catálogo instrumental

con el objetivo de aislar dichos precursores. Se designan estos "modelos de proceso

físicos". En este subconjunto también se incluyen dos técnicas que caen ligeramente

fuera de los parámetros descritos anteriormente, la hipótesis de terremotos

característica y la hipótesis de liberación del momento acelerado (ARM del inglés

accelerated moment release).

Si bien ambas usan un subconjunto relativamente pequeño de grandes eventos y

no están formulados de manera óptima para producir predicciones limitadas temporal

y espacialmente, su innegable impacto en la comunidad de predicción de terremotos

obliga a su inclusión aquí.

En la sección 2.4 se detalla la evolución y el estado actual de los modelos sísmicos

suavizados. Estos modelos principalmente se aplican a series de técnicas de filtrado,

normalmente basados en conocimientos o supuestos sobre estadísticas de terremotos

o en datos del catálogo sísmico con el objetivo de predecir en escalas de tiempo

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 15

pequeñas y medianas. Se concluye con un corto debate sobre las limitaciones y futuras

perspectivas de las herramientas de predicción basadas en la sismicidad.

2.3 Modelos de procesos físicos

Los modelos de procesos físicos son aquellos en los que el proceso preliminar se

basa en uno o más mecanismos o fenómenos físicos asociados con la generación de

grandes eventos. Un análisis detallado, normalmente pero no siempre estadístico, se

lleva a cabo en la sismicidad instrumental con el fin de aislar estos precursores.

Estas técnicas están basadas en las suposiciones de que la sismicidad actúa como

un sensor para el proceso físico subyacente y puede proporcionar información sobre la

naturaleza espacial y temporal del proceso. Cabe señalar que si bien la clasificación de

una fuente física y potencialmente verificable para el proceso de generación de un

terremoto es una característica atractiva de estas metodologías, diferenciar entre la

fuente y las variaciones sutiles de los fenómenos sísmicos es difícil. Como resultado,

muchas de estas técnicas se basan en reconocimiento de patrones o en metodologías

estadísticas para aislar la señal espacio-temporal. Una comprensión completa de sus

éxitos y fracasos relativos es a menudo oscurecida por la complicada naturaleza del

análisis, las hipótesis de simplificación del modelo físico y la heterogeneidad que existe

en el mundo real.

Se discutirá estos modelos de proceso físicos que han tenido los mayores impactos

en la materia y son parte de las investigaciones sobre predicción actuales que emplean

catálogos de alta calidad de regiones sísmicas activas.

2.3.1 Liberación del momento de aceleración (AMR)

Las activaciones sísmicas precursoras, o también llamada actividad de sismos

iniciales, han sido observadas antes de un serie de grandes eventos por todo el mundo

(Bakun et al., 2005;Ellsworth et al., 1981; Jones and Molnar, 1979; Jordan and Jones,

2010; Rikitake, 1976; Sykes and Jaumé, 1990). El método aplicado más extendido para

analizar estos aumentos de precursores en la sismicidad son conocidos como análisis

de tiempo hasta el fallo, liberación del momento sísmico de aceleración (ASMR del

inglés accelerating seismic moment release) o liberación del momento de aceleración

(AMR del inglés accelerating moment release) (Ben-Zion and Lyakhovsky,

2002;Bowman and King, 2001; Bowman et al., 1998; Brehm and Braile, 1998; Bufe and

Varnes, 1993; Jaumé and Sykes, 1999; Mignan, 2008; Robinson, 2000; Turcotte et al.,

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 16

2003; entre otros).Si bien, en general, el ARM se encuentra fuera del alcance general

de esta revisión debido a que usa sólo una fracción relativamente pequeña del

catálogo instrumental en sus análisis, y su periodo de tiempo previsto está definido

pobremente y normalmente a largo plazo, es incluido aquí debido a la importante

influencia que ha tenido en la disciplina así como su potencial para la incorporación en

metodologías de predicción en curso.

Una discusión más completa de la historia y teoría del AMR se encuentra en

Mignan (2011).

Estudios recientes han encontrad que la tasa de liberación del momento sísmico

para terremotos de magnitud mayor o igual a 5 se incrementaba con un componente

de aceleración, previo a grandes eventos en el área de San Francisco, antes que

linealmente, y que la velocidad del momento sísmico acumulado se ajustaba mejor con

un modelo incremental exponencialmente (Ellsworth et al., 1981; Sykes and Jaumé,

1990). Bufe and Varnes (1993) aplicado a una ley de potencias de un modelo de

tiempo hasta el fallo (Voight, 1989) hasta las mismas secuencias sísmicas y se

descubrió que la raíz cuadrada de la energía sísmica, o la tensión Benioff acumulada,

proporcionaba una mejor predicción de eventos futuros. Una revisión a fondo

relacionado con el fallo del material y la propagación de grietas por/hasta el

mecanismo del tiempo hasta el fallo se encuentra en Main (1999a)

En la siguiente referencia Bufe and Varnes (1993), la relación para el AMR es ���� = � − ��� − �� (2.3.1)

donde tf es el tiempo del sismo principal, A y B son constantes y m cae típicamente

entre 0,1 y 0,5 con un valor medio de 0,3. ε�t� = ∑ �E�������� es la tensión Benioff

acumulada, donde Ei es el momento sísmico del terremoto i-ésimo (Ben-Zion and

Lyakhovsky, 2002). Sin embargo, Mignan et al. (2007) mostró que es preferible el

número total de eventos, de tal manera que la sismicidad acelerativa precursora

corresponde a un incremento del valor a, la intercepción de y en el punto de corte de

la magnitud mínima de la curva de Gutenberg-Richter (GR). Este resultado se apoya en

los recientes análisis de los catálogos de sísmicos naturales además de otros estudios

ARM (ver por ejemplo Bowman and Sammis, 2004; Jiménez et al., 2005).

King y Bowman (2003) propusieron la teoría del rebote elástico (Reid, 1910) y las

interacciones de tensión Coulomb (Bakun et al., 1986; King et al., 1994; Smalley et al.,

1985; Stein, 1999) como la base para el modelo de acumulación de estrés (SAM del

inglés Stress Acumulation Model) En esta versión, ARM surge desde la sismicidad de

fondo cuando toda la región se vuelve suficientemente tensa para el sismo principal

que se produce debido a la carga de tensión de la falla con el tiempo. Las dimensiones

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 17

asociadas están directamente relacionadas con el grado de aumento de la tensión

Coulomb, y observaciones del momento de aceleración liberado en California están

relacionados con la región crítica definida usando la tensión de Coulomb (Bowman and

King, 2001; Mignan et al., 2006a).

Mientras técnicas convencionales de tensión Coulomb directamente calculan

cambios en la tensión, el método de evolución cíclico de tensión de King and Bowman

(2003) modela la evolución del campo de tensión respecto a la tensión de la falla.

Siguiendo a un gran evento, regiones de aumento de sismicidad ocurren cuando el

ámbito de tensión total es elevado (réplicas). También da lugar a regiones de reducida

sismicidad donde el ámbito de tensión ha sido reducido (sombras de estrés), en áreas

de inactividad sísmicamente amplias. Cabe resaltar que si la región que está siendo

investigada es demasiado grande, la liberación del momento de aceleración se

enmascara por una sismicidad de fondo aleatoria no asociada, pero si la región

seleccionada es demasiado pequeña, los eventos que son importantes son excluidos

en la identificación de la aceleración (Bowman et al., 1998).

Bowman et al. (1998) originalmente empleó un algoritmo simple de búsqueda

para definir regiones circulares del ARM antes de un gran terremoto. La tensión

Benioff acumulativa dentro de una serie de regiones circulares se ajusta a la ecuación

de tiempo hasta el fallo de ley de potencia (Bowman et al., 1998; Bufe and Varnes,

1993) y hasta una la línea recta. La relación de los residuos de estos ajustes (c= ley de

potencias residuales/ residuos lineales) es calculado para cada radio, y es llamado

valor c. Cuanto más grande es la curvatura del ASMR, más pequeño es el valor c y la

probabilidad de un evento aumenta. En versiones recientes, el tamaño de la región se

ajusta a un patrón espacial que se aproxima al patrón de cambio de estrés asociado

con mecanismos de falla particulares (King and Bowman, 2003). Los mecanismos

típicos de falla, para la falla de San Jacinto del sur, están centradas en el epicentro del

escenario sísmico. Una serie de estos escenarios de fallas de tamaño variable se traza

para periodos diferentes de tiempo, y el mínimo de la trama resultante es la región con

la mayor aceleración.

El algoritmo regional de optimización de Bowman et al. (1998) fue aplicado a

catálogos instrumentales para el sur de California (Tiampo et al., 2008).Dicha falla

escenario tiene parámetros de origen equivalentes a terremotos de magnitudes 7.5 a

lo largo del sur de la falla de San Andrés. El mejor valor c para este evento, calculado

desde la curva ARM es 0,78, indicando un valor de aproximadamente un 25% de

fiabilidad. Como los valores de c deben ser menores que 0,6 para una predicción fiable

(Mignan et al., 2006a), el evento es improbable que ocurra en un futuro cercano.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 18

Tanto Mignan et al. (2007) como Mignan (2008) propusieron una nueva

aproximación, la teoría sísmica de aceleración precursora no crítica (non-critical PAST).

Mignan et al. (2007) demostró analíticamente que para una región fija en el espacio, el

número de eventos acumulados, λ(t), que comprende la sismicidad de fondo aumenta

como una función de ley de potencias a través del tiempo anterior al sismo principal.

Esta aceleración corresponde con un incremento del valor a sobre unas regiones

determinadas, de acuerdo con observaciones recientes (Bowman and Sammis, 2004;

Mignan and Giovambattista, 2008) y con simulaciones previas (King and Bowman,

2003) mientras los eventos que se producen en las sombras de tensión tienden a

esconder el patrón de aceleración sísmica (por ejemplo, la sismicidad de fondo).

A pesar de que el ARM ha sido observado en varias regiones (Bowman et al., 1998;

Brehm and Braile, 1998; Di Giovambattista and Tyupkin, 2004; Jiang and Wu, 2006,

2010b; Mignan et al., 2006b; Papazachos et al., 2007; Robinson, 2000) y todavía es

activamente estudiado, no se detecta para todos los lugares y eventos. Las razones

para esto siguen siendo esquivas. Una posible explicación radica en el hecho de que si

el modelo propuesto por Bowmn and King (2001) and Mignan et al. (2006a,b) es

correcto, existe un ciclo de activación-inactividad-activación en la sismicidad que está

localizada en el espacio (por ejemplo Di Giovambattista and Tyupkin, 2004; Evison and

Rhoades, 2004; Jaumé and Sykes, 1999). La identificación de estas variaciones espacio-

temporales puede ser difícil. Como se señala en Hardebeck et al. (1998),

aproximadamente el 60% de las réplicas ocurren en regiones donde hay un aumento

de la tensión relacionado con un gran evento, tal que el 40% restante de todos las

réplicas ocurren en áreas designadas como sombras de tensión, o regiones de

inactividad. Estos pueden enmascarar potencialmente el patrón acelerativo de

sismicidad. Además, Ben-Zion and Lyakhovsky (2002) señala que, en simulaciones de

redes de fallas, AMR ocurre solo en aquellos casos donde la sismicidad antes de un

gran evento tiene estadísticas de tamaño de frecuencia amplias.

Como una herramienta de predicción, ARM presenta un desafío significativo

debido a las dificultades asociadas con ajustar los datos acumulados, como

originalmente se señala por Bufe and Varnes (1993). Primero, se presenta una

tendencia de muestra, de modo que distinguir entre señales ARM y no-ARM es difícil y

un falso diagnóstico de ARM puede surgir de la variación normal en los datos

(Greenhough et al., 2009; Hardebeck et al., 2008). Mignan (2008) mostró que el valor

de c llega a ser inestable para niveles de ruido mayores que un 20%, haciendo la

optimización del valor de c menos eficiente. En particular, no se puede identificar el

patrón de inactividad que esta acoplado al AMR. Sin embargo, los intentos para

cuantificar mejor el patrón activación-inactividad- activación y su firma espacial han

mostrado un éxito moderado en años recientes.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 19

Mignan and Giovambattista (2008) demostraron que el algoritmo de longitud-

tiempo-región (RTL del inglés region-time-length), otro algoritmo de predicción para

cuantificar la activación relativa y la inactividad, es sensible a la etapa de inactividad

definida en las simulaciones PAST no-críticas, y que la aceleración precursora sísmica e

inactiva ocurría en la misma espacio-tiempo antes del terremoto de Umbria-Marche

en Italia en 1997. Mignan and Tiampo (2010) demostraron que los índices de patrones

informáticos (PI) también identificaban correctamente las regiones de inactividad

asociadas con señales ARM simuladas. Finalmente, el ARM ha sido aplicado con éxito

en configuraciones vulcano-tectónicas (Chastin and Main, 2003; Kilburn and Voight,

1998).

En segundo lugar, los intentos de ajustar los datos ARM acumulados se han visto

obstaculizados por la no linealidad de dicho ajuste y por la tendencia de la muestra

asociada. La premisa original del análisis de tiempo hasta el fallo fue que el tiempo

hasta el siguiente evento puede ser estimado a través de ajustes de curvas de la ley de

potencias asociada. Sin embargo, esta premisa nunca se ha materializado (Bufe and

Varnes, 1993; Main, 1999a). Incluso si la teoría es correcta, el empinado ajuste de la

curva a medida que se acerca a la ocurrencia de terremotos actual significa que incluso

pequeñas variaciones en los datos dan como resultado grandes errores en el tiempo

de ocurrencia. Además, debido a los periodos de tiempo de predicción inciertos y las

relativamente grandes magnitudes de los eventos empleados por el algoritmo

(~M≥4.5), la predicción no puede ser actualizada tan rápido como las actividades

sísmicas en curso y los cambios de tensión asociados en una región tectónica activa.

Esto da como resultado un número significativo de falsos positivos o predicciones que

no resultan en eventos subsecuentes (Jordan and Jones, 2010; Mignan et al., 2006b).

Finalmente, las predicciones ARM son las más adecuadas para una predicción binaria

sobre este periodo de tiempo incierto, y como resultado nunca ha sido explícitamente

formuladas para probar de nuevo una hipótesis nula aleatoria o agrupada.

Del lado positivo, la aproximación ARM (SAM) tiene el beneficio de proveer no

sólo un aumento de la probabilidad de un evento, sino el mecanismo y la longitud de la

falla, los cuales pueden ser convertidos en magnitudes potenciales. Acoplados con

otras técnicas (Mignan and Giovambattista, 2008; Tiampo et al., 2008) que están mejor

adaptadas a actualizaciones frecuentes para mejores precisiones temporales, el ARM

tiene el potencial de aumentar predicciones a medio plazo con información de

mecanismos y magnitudes.

2.3.2 Terremotos característicos

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 20

A pesar de que la hipótesis de terremotos característico también se encuentra

fuera de los parámetros de estudio de esta revisión, como se ha resaltado antes, su

amplio impacto de propagación en la comunidad de predicción basado en sismicidad y

los modelos de riesgo en curso sobre los últimos 20 años merecen que se incluya aquí.

La duración de los terremotos característicos fue acuñada por Schwartz et al.

(1981) y detallado en Schwartz and Coppersmith (1984), pero el concepto es una

extensión de los primeros trabajos de Reid (1910). Como se ha señalado en la anterior

sección, la teoría de rebote elástico plantea la hipótesis de que un gran terremoto

libera la mayoría de su tensión acumulada en un segmento de una falla dada y que el

siguiente terremoto ocurre después de que la tensión se acumule hasta que es

restaurada a un nivel que da como resultado una ruptura de nuevo. Aquí, el modelo de

terremotos característico supone que las fallas tienden a generar terremotos del

mismo tamaño sobre un rango muy estrecho de magnitudes en las zonas de ruptura o

segmentos que son similares en localización y extensión espacial (Ellsworth and Cole,

1997; Parsons and Geist, 2009; Schwartz and Coppersmith, 1984; Schwartz et al., 1981;

Wesnousky, 1994). La hipótesis conduce a la predicción de eventos específicos con un

tamaño de dimensión de ruptura similar a los terremotos más grandes (magnitudes

entre 6.5 y 9). El modelo es atractivo porque ajusta observaciones históricas y

empíricas en los niveles más básicos, por ejemplo, los grandes terremotos tienden a

ocurrir donde han ocurrido en el pasado (Allen, 1968; Davison and Scholz, 1985;

Frankel et al., 2002; Kafka, 2002; Petersen et al., 2007). De nuevo, esto método

particular difiere de los principales métodos discutidos en otra parte en este artículo

en el que no se utilizan catálogos sísmicos recientes, incluyendo los eventos de tamaño

pequeño-mediano, para cuantificar peligros de sismicidad a medio plazo. En vez de

eso, se basa en eventos históricos de magnitudes entre 5 a 6 y superiores, y el evento

más grande desde los estudios paleosísmicos (Wesnousky, 1994). Los estudios

paleosísmicos (Anderson et al., 1989; Arrowsmith et al., 1997; Biasi and Weldon, 2006;

Biasi et al., 2002; Grant and Shearer, 2004; Grant and Sieh, 1994; Lienkaemper, 2001;

Lienkaemper and Prescott, 1989; Matsu'ura and Kase, 2010; Pantosti et al., 2008;

Rockwell et al., 2003; Sieh, 1984; Sieh et al., 1989;Weldon et al., 2004, entre otros)

proporcionan información detallada del desplazamiento, área de ruptura e intervalos

de recurrencia para la inclusión en el modelo de terremotos característico (Parsons

and Geist, 2009; Schwartz and Coppersmith, 1984; Wallace, 1970; Wesnousky, 1994).

En el modelo de terremotos característico los periodos de retorno, o intervalos de

recurrencia, de los más grandes, relativamente poco frecuentes, eventos están

asociados con el mayor peligro sísmico significativo para una falla dada, los terremotos

obedecen la relación de magnitud-frecuencia GR (Frohlich and Davis, 1993; Gulia and

Wiemer, 2010; Gutenberg and Richter, 1944;Pacheco et al., 1992; Parsons and Geist,

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 21

2009; Schorlemmer et al., 2004a, 2005, entre otros), la tasa de terremotos

característicos podría ser mayor que lo esperado desde la ley de escala GR (Parsons

and Geist, 2009; Schwartz and Coppersmith, 1984;Wesnousky, 1994).

Existen muchos estudios recientes y aplicaciones de la teoría de terremotos

característicos para la valoración de peligro sísmico (Cao et al., 2003, 2005; Chang and

Smith, 2002; Frankel et al., 2002; Parsons, 2004; Petersen et al., 2008; Romeo, 2005;

Stirling et al., 1996, 2002b) Los dos ejemplos más notables son el experimento

predictivo de Parkfield y la incorporación del modelo de terremotos característico en

las estimaciones de peligro del Grupo de Trabajo de Probabilidad de Terremotos en

California (WGCEP del inglés working group on California Earthquake Probabilities), la

cual incorpora terremotos característicos en la construcción de modelos de peligro

sísmico para california (WGCEP, 1988, 1990, 1995, 2002, 2003, 2008).

Los terremotos en el segmento de Parkfield de la falla de San Andrés en California

fueron designados como característicos a mediados de los años 80, basados en la

evidencia para la periodicidad en 1.881, 1.901, 1.922, 1.934 y 1.966 de un evento de

aproximadamente la misma magnitud y localización (Bakun and Lindh, 1985; Bakun

and McEvilly, 1984; Bakun et al., 2005).. Como resultado, el Consejo Nacional de

Evaluación y Predicción de Terremotos (NEPEC del inglés national earthquake

predicition evaluation council) emitieron una predicción de un terremoto de magnitud

aproximada a 6 que tenía un 95% de probabilidades de ocurrir entre 1985 y 1993 cerca

de Parkfield, California (Shearer, 1985). El terremoto predicho no ocurrió hasta

septiembre de 2004, más de 10 años después del fin del intervalo de pronóstico. A

pesar de una exhaustiva revisión de las predicciones originales y de los estudios

asociados, modificaciones e implicaciones pueden ser encontrados en Jackson and

Kagan (2006), el terremoto claramente no cumplió la suposición del comportamiento

cuasi-periódico implícito en la predicción original.

El modelo de terremotos característico tiene un impacto significativo y

permanente en la valoración y cuantificación del peligro sísmico en muchas regiones.

Sin embargo, mientras la evidencia persiste de que los terremotos ocurren de una

manera cuasi-periódica por al menos un cierto periodo durante la vida de una falla, la

naturaleza, persistencia y variación en ese comportamiento es complejo espacial y

temporalmente (por ejemplo, Biasi and Weldon, 2006; Cao et al., 2003, 2005; Chang

and Smith, 2002; Faenza et al., 2003; Frankel et al., 2002; Ishibe and Shimazaki, 2009;

Lienkaemper, 2001; Pailoplee et al., 2009; Parsons, 2004; Parsons and Geist, 2009;

Peruzza et al., 2010; Petersen et al., 2008; Romeo, 2005; Stirling et al., 1996, 2002b;

Vázquez-Prada et al., 2003). En particular, dadas las relativamente cortas duraciones

de catálogos instrumentales e históricos, y las incertidumbres asociadas con citas

paleosismicas, la cuantificación de la dimensión de ruptura, segmentación de falla y

magnitud no solo es difícil, sino que también tiene efectos importantes en las

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 22

estimaciones de peligro resultantes (Biasi and Weldon, 2006; Jackson and Kagan, 2006;

Page and Carlson, 2006; Parsons and Geist, 2009; Romeo, 2005; Savage, 1991, 1992;

Stein and Newman, 2004; Stein et al., 2005; Stirling and Wesnousky, 1997). Quizás lo

más importante, para los periodos de recurrencia para eventos característicos es que

son relativamente largos y la predicción resultante generalmente representa una

pequeña fracción del ciclo sísmico, una predicción formulada desde un periodo de

retorno característico no puede incorporar la naturaleza dinámica de la sismicidad. La

actividad sísmica permanente, las interacciones asociadas y los cambios de tensión en

una región tectónica activa no pueden ser incorporados en una predicción basada en

un modelo de terremoto característico porque su naturaleza no permite la

incorporación de cambios espaciales y temporales en la actividad (Jordan and Jones,

2010).

El terremoto característico y el modelo de grieta sísmica relacionado continúan

siendo estudiados y aplicados de varias formas (por ejemplo Biasi and Weldon, 2006;

Faenza, et al., 2003; Fedotov, 1968; Hurukawa and Maung, 2011; Ishibe and Shimazaki,

2009; Kelleher, 1972; Kelleher et al., 1973; Lienkaemper, 2001; McCann et al., 1979;

Nishenko, 1989; Nishenko and McCann, 1981; Pailoplee et al., 2009; Peruzza et al.,

2010; Sykes, 1971; Sykes and Nishenko, 1984; Thatcher, 1989; Vázquez-Prada et al.,

2003).. Es posible incluir terremotos cualitativamente característicos en un modelo de

predicción probabilístico, como se demuestra por su inclusión en dos de los modelos

de predicción para Italia presentados para testing en la página de prueba del CSEP

(CSEP, www.cseptesting.org). El modelo de transferencia de tensión a medio plazo

(LTST del inglés long-term stress transfer) (Falcone et al., 2010) y el modelo fuente

sismogénico en capas en Italia central (LASSCI del inglés layered seismogenic source

model in central Italy) (Pace et al., 2010) incluyen componentes de terremotos

característicos significativos en sus formulaciones. Sin embargo, sus aplicaciones a

predicciones a medio plazo presentan varios problemas prácticos y teóricos.

Los estudios más recientes sobre la hipótesis de terremotos característicos

(Jackson and Kagan, 2006; Rong et al., 2003; Stein and Newman, 2004; Stein et al.,

2005) sugieren que la evidencia apoyada anteriormente es el resultado de la limitada

longitud del catálogo de terremotos instrumental relacionado con los intervalos de

recurrencia, errores en el tamaño o la frecuencia de grandes eventos en los registros

paleosismicos, y la variabilidad en la elección de la extensión espacial y el

deslizamiento asociado a la región de grieta sísmica (Jackson and Kagan,2006; Stein

and Newman, 2004; Stein et al., 2005; Thatcher, 1989) Para esta discusión está claro

que, cualquiera que sea los resultados y la aplicación futura de la teoría de terremotos

característico, no es un buen ajuste a la categoría de técnicas de predicción basadas en

sismicidad discutidos en otras partes de este trabajo. Primeramente, los grandes

eventos en amplias áreas espaciales son usados para predecir eventos similares sobre

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 23

largos periodos de tiempo, en lugar de analizar un número significativo de eventos

para predecir la probabilidad de grandes eventos en lugares específicos, bien

definidos. En segundo lugar, la inherente naturaleza a largo plazo del incremento o

decremento de riesgo asociado con estas regiones es extremadamente difícil de

cuantificar de una manera que sea a la vez verificable y evaluable. Por ejemplo, a pesar

de que Hurukawa and Maung (2011) esbozo dos grietas sísmicas en Myanmar, no

pueden definir el intervalo recurrente para esos eventos o un periodo de tiempo de

aumento de riego, lo cual es probable en un orden de 50 a 100 años.

Finalmente los efectos de muestra pueden sesgar estadísticas de magnitud y

frecuencia en gran medida hacia una distribución característica (Naylor et al., 2009). El

pequeño número de grandes eventos disponibles incluso sobre un periodo de tiempo

de 30 a 50 años en cualquiera de los catálogos regionales o mundiales hace que las

pruebas estadísticas sean extremadamente difíciles y sugiere que pasarán muchos

años más antes de que la utilidad de esta técnica particular pueda ser adecuadamente

evaluada o implementada en un esquema de predicción operacional (Jackson and

Kagan, 2006; Schorlemmer and Gerstenberger, 2007; Vere-Jones, 1995, 2006; Zechar

et al., 2010)

2.3.3 Variaciones en el valor b

Variaciones en el valor b, o pendiente de la relación de distribución de magnitud y

frecuencia GR para terremotos, han sido estudiadas intensamente a lo largo de los

últimos 20 años (Cao et al., 1996; Frohlich and Davis, 1993; Gerstenberger et al., 2001;

Gutenberg and Richter, 1944; Imoto, 1991; Imoto et al., 1990; Ogata and Katsura,

1993; Schorlemmer et al., 2004a; Wiemer and Benoit, 1996; Wiemer and

Schorlemmer, 2007; Wiemer andWyss, 1997, 2002;Wiemer et al., 1998;Wyss

andWiemer, 2000 entre otros)

Para una revisión más completa de los recientes investigaciones en la variaciones

del valor b, ver Wiemer andWyss (2002). En general, este trabajo demuestra que el

valor b es altamente heterogéneo en el espacio y en el tiempo y en una amplia

variedad de escalas (Schorlemmer etal., 2004a; Wiemer and Schorlemmer, 2007;

Wiemer and Wyss, 2002). Estas variaciones tienen importantes implicaciones para

peligros sísmicos porque las valoraciones de peligro sísmico probabilístico regional

(PSHA del inglés probabilistic seismic hazard assessment) son realizadas comúnmente

usando la distribución de frecuencia-magnitud de GR, particularmente en áreas de

sismicidad dispersa (Field, 2007;Wiemer and Schorlemmer, 2007;Wiemer et al., 2009).

Sin embargo, el principal objetivo de este estudio será las implicaciones de cambios en

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 24

el valor b, que están asociados potencialmente con futuros grandes eventos, y la

investigación asociada en la predicción del valor b.

Algunos trabajos recientes basados en valores b regionales han dado como

resultado dos importantes conclusiones. La primera, que el valor de b varía con el

mecanismo de falla. El valor b para eventos de empuje es más pequeño (~ 0,7)

mientras que la de los eventos de desgarre es intermedia (~ 0,9) y es mayor para

eventos normales (~ 1.1). Esta relación es inversamente proporcional a la tensión

media en cada régimen (Schorlemmer et al., 2005; Gulia and Wiemer, 2010)confirmó

este resultado para la sismicidad regional en Italia. En segundo lugar, investigaciones

relacionadas sugieren que los parches bloqueados en fallas, o asperezas, se

caracterizan por valores de b bajos, mientras que las fallas de arrastre tienen mayores

valores de b (Schorlemmer et al., 2004b; Wiemer and Wyss, 1994, 1997, 2002). En su

conjunto, esto sugiere que el cambio en el valor b puede ser usado como un sensor de

tensión, localizando áreas de acumulación de tensión grande o baja, particularmente

hacia el fin del ciclo sísmico, y cuantificable en un modelo de predicción de terremotos

regional (Gulia and Wiemer, 2010;Latchman et al., 2008; Schorlemmer et al.,

2005).Esta hipótesis es apoyada por los resultados en laboratorio para emisiones

acústicas. Estas mostraron que el valor de b es sensible tanto a la heterogeneidad de la

tensión (Scholz, 1968) como a la del material (Mogi, 1967) en primera instancia, y a la

intensidad de la tensión normalizada por la resistencia a la fractura en segunda

instancia (Sammonds et al., 1992). La intensidad de la tensión es proporcional a la

tensión efectiva (Sammonds et al., 1992) y la raíz cuadrada de la longitud de formar un

núcleo (nucleating) de la fractura, de tal manera que los materiales heterogéneos

tienden a estar juntos, confirmando la relación entre tensión, heterogeneidad y el

valor b.

Muchas de las referencias anteriores debaten incrementos en el riesgo sísmico

asociado con valores de b bajos (por ejemplo Westerhaus et al., 2002) y formulan

mapas de variaciones del valor b para grandes eventos. Sin embargo, algunos trabajos

recientes se han centrado en formular predicciones probabilísticas predictivas usando

variaciones del valor b. Schorlemmer et al. (2005) estudió las variaciones del valor b a

lo largo del segmento de Parkfield de San Andrés, y produjo retrospectiva de periodos

de 5 años por la extrapolación de la distribución GR con valores de b variantes

espacialmente sobre pequeños volúmenes. Wiemer and Schorlemmer (2007)

desarrolló el modelo de probabilidad basado en aspereza (ALM del inglés asperity-

based likelihood model) para California y se lo pasó a la web de pruebas de

predicciones RELM. En esta versión, analizaban los catálogos sísmicos para California

para la magnitud mínima de integridad y una profundidad de 30 km. Debido a que los

cálculos del valor b deben alcanzar de 5 a 20 km, dependiendo de la velocidad de

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 25

actividad, se calculan dos modelos. El primero es un modelo local, y el segundo es un

modelo regional. El ajuste del valor b es calculado desde una puntuación probable (Aki,

1965) y entonces los dos modelos son comparados con el Criterio de información

Akaike corregido, AIC (Akaike, 1974; Burnham and Anderson, 2002; Kenneth et al.,

2002). La puntuación más baja de AIC es el mejor modelo. Se realiza una búsqueda

variando el tamaño de regiones locales y comparándolas con el valor AIC regional. La

localización con los radios más pequeños donde el modelo del valor b local puntúa un

AIC más bajo es usado para computar la distribución para la sismicidad en la región.

Una vez que una distribución de magnitud-frecuencia es determinada para cada

localización, la tasa anual de eventos en cada magnitud encontrada de 5.0≤M≤9.0

puede ser calculada para la predicción (Wiemer and Schorlemmer, 2007).

Gulia et al., 2010 proporcionó una predicción ALM para Italia en CSEP

(CSEP,www.cseptesting.org). La metodología fue similar a aquella de Wiemer and

Schorlemmer (2007), más arriba, excepto que la magnitud de valores de integridad

fueron arreglados usando un núcleo Gaussiano. Además, dos predicciones modificadas

fueron creados desde ALM: en el modelo ALM.IT, el catálogo de entrada es

desagrupado para M≥2 y un filtro Gaussiano es aplicado en una base de nodo antes del

cálculo del valor de a en la distribución magnitud-frecuencia.

En la versión HALM, el modelo fue modificado de modo que la región fue

fraccionada en ocho subregiones sobre provincias tectónicas, y esto fue usado para el

modelo global, dependiendo de la localización de cada nodo. Las investigaciones a

largo plazo en las estadísticas del valor b proporcionan fuertes evidencias de que

ocurren variaciones persistentes que están correlacionadas con el campo de tensión

heterogéneo en zonas de fallas principales. Los continuos esfuerzos han dado como

resultado predicciones testeables para ocurrencias sísmicas y proporcionan evidencia

tranquilizadora de que los precursores de sismicidad pueden ser traducidos a mapas

de peligro dependientes del tiempo.

2.3.4 La familia de algoritmos M8

El algoritmo M8 (Keilis-Borok and Kossobokov, 1990; Keilis-Borok et al., 1990;

Kossobokov, 2006a,b; Kossobokov et al., 1999, 2000, 2002; Latoussakis and

Kossobokov, 1990; Peresan et al., 2005 fue desarrollado aproximadamente hace 30

años con el fin de localizar regiones de mayor probabilidad de ocurrencia de terremoto

en el espacio y el tiempo. Modificado en los años siguientes, el algoritmo actual calcula

siete series de tiempo, desde pequeños terremotos, ~ M4, para una región especifica

de investigación que es una función del tamaño del terremoto que va a ser

pronosticado. Los valores de estas series de tiempo son usados para tomar una

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 26

decisión de si invocar un "tiempo de probabilidad aumentada" o TIP (del inglés time of

increased probability), para un gran evento de aproximadamente M6,5-8 (Kossobokov

et al., 1999).

El algoritmo M8 generalmente implica la predicción de áreas relativamente

grandes de aproximadamente 5 veces la dimensión de ruptura, o desde centenares

hasta más de mil km, y desde 6 meses a 5 años en el futuro (Kossobokov, 2006a). Las

predicciones son calculadas para terremotos de magnitudes M0 y superiores en

intervalos de 0,5. La región es escaneada usando círculos superpuestos con un

diámetro directamente relacionado con M0, o 384 km, 560 km, 854 km y 1333 km para

M6.5, M7.0, M7.5 y M8 respectivamente. Las series de tiempo para secuencias de

terremotos dentro de cada círculo son calculadas y entonces normalizadas con el corte

de magnitud más bajo. Son calculadas varias medias móviles para la secuencia en

espacios de tiempo deslizantes, típicamente 6 meses, lo cual caracteriza la intensidad

del terremoto y su desviación de la media, y el agrupamiento de sismicidad.

Específicamente, M8 calcula N(t), el número de sismos principales; L(t) la desviación

del N(t) de la tendencia a largo plazo; Z(t) la concentración lineal de sismos principales

calculados como la proporción de l, el diámetro medio del origen, hasta la distancia

media entre ellos, r; y B(t) el número máximo de réplicas, un proxy para la agrupación

de terremotos. N(t), L(t), y Z(t) son calculados dos veces cada uno, por dos valores

diferentes de Ñ, que es el valor estándar del número medio anual de terremotos en la

secuencia, típicamente 10 y 20. Los valores grandes son identificados cuando exceden

el percentil Q como un porcentaje dado de los valores encontrados, típicamente 75%

para B y 90% para las otras funciones. Una alarma o una TIP de 5 años ocurren cuando

al menos 6 de las 7 funciones, incluyendo B, se hacen grandes dentro de dos

secuencias de tiempo consecutivas (Kossobokov et al., 1999).

Desde su inicio, el algoritmo M8 ha sido controvertido y polémico. Su efectividad

es todavía discutida, en parte, porque de hecho es una aproximación de

reconocimiento de patrones a la cual ningún mecanismo físico causal se le ha atribuido

(CEPEC Report, 2004a,b; Eneva andBen-Zion, 1997; Harte et al., 2003; Harte et al.,

2007; Kossobokov et al., 2000). Ha habido muchos éxitos predictivos (CEPEC Report,

2004a,b; Kossobokov et al., 1999) , pero estos ocurren en espacios temporales y

espaciales de alarmas que son bastante grandes (Kagan, 1997; Kossobokovet al., 1999;

Marzocchi et al., 2003, entre otros). Como resultado las dificultades para entender y

probar el método son numerosas. Predice grandes e infrecuentes eventos cuyas

estadísticas son, como se señala en otro lugar de este trabajo, difícil de evaluar sin un

tamaño de muestra suficiente (Jackson and Kagan, 2006; Schorlemmer and

Gerstenberger, 2007; Vere-Jones, 1995, 2006; Zechar et al., 2010). Finalmente, su

rígida especificación de regiones, magnitudes y tiempos exige un criterio de predicción

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 27

binario (por ejemplo, éxito o fallo) para su evaluación, lo que lo hace difícil de evaluar y

significa que es altamente sensible a falsos positivos (Harte et al., 2003, 2007; Jackson

and Kagan, 2006; Marzocchi et al., 2003).

Hace aproximadamente 10 años, un algoritmo de seguimiento fue añadido a la

familia de M8 llamada el escenario Mendocino, o MSc (del inglés Mendocino Scenario)

(Kossobokov,2006a; Kossobokov et al., 1999). En este paso, las predicciones son

hechas usando M8. Subsecuentemente las áreas de alarma (TIP) son reducidas por

MSc. Dado un TIP diagnosticado para un cierto territorio U, el algoritmos es diseñado

para encontrar dentro de U un área más pequeña, V, donde los terremotos predichos

pueden ser esperados. Destacar que este algoritmo particular requiere un catálogo

completo razonable de terremotos con magnitudes superiores a M 4.

Dentro de cada cuadrado el número de terremotos, incluyendo réplicas, es

calculado para espacios consecutivos de tiempos cortos. Los cuadros de inactividad

espacio-temporales son identificados en base a la condición de que el número de

eventos este de nuevo por debajo del percentil Q. Las agrupaciones de cuadros

inactivos se identifican que están conectados en tiempo o en espacio, y estos son

identificados como cadenas. La subárea, V, está basada en estas agrupaciones. Por lo

tanto, el algoritmo MSc esboza un área del TIP donde la actividad es generalmente alta

pero ha sido interrumpida por un corto periodo de tiempo. Entre 1992 y 1997, 5

terremotos de magnitud superior e igual a 8 ocurrieron en el área de prueba: todos

ellos fueron predichos por M8 y el MSc identificó correctamente la localización de 4 de

ellos (Kossobokov et al., 1999). Kossobokov (2006a,b) aplicó M8 y MSc a la predicción

retrospectiva y sugirió que la metodología podía ser re-escalada para predicciones de

terremotos de pequeña y gran magnitud desde pruebas retrospectivas en eventos

M5.5 en Italia y en el terremoto M9.0 en Sumatra.

En Keilis-Borok et al. (2002) se presentó un método para predicciones de

terremotos a corto plazo. Esbozaron dos patrones de sismicidad además del empleado

en el algoritmo MSc, ROC y Accord. El patrón ROC registra las casi simultáneas

ocurrencias de sismos principales de magnitud media en largas distancias, mientras

que el patrón Accord refleja un casi simultáneo aumento de la actividad sísmica en

diferentes localizaciones en una región. Ambos patrones fueron mostrados para

predecir 5 grandes terremotos en cuestión de meses en California entre 1968 y 1999,

así como para periodos de tiempo más largos. Una alarma a corto plazo de 6 a 9 meses

se emite basada en cadenas de estas señales que se extienden a largos intervalos.

A mediados de 2003, el grupo Keilis-Borok emitió dos predicciones de terremotos

a corto plazo, uno para un terremoto M≥7.0 en una región de 250.000 millas

cuadradas en la parte norte de las islas japonesas y uno para un terremoto de M≥6.4

en un área de 40.000 millas cuadradas de California central. Las predicciones fueron

satisfactorias para las terremotos de 2003 en Hokkaido y diciembre de 2003 en San

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 28

Simeón (CEPEC Report, 2004a,b). Esto fue seguido por una predicción de terremoto de

magnitud 6,4 o superior antes del 5 de septiembre de 2004 en una región de 12.440

millas cuadradas del Sur de California, y una predicción subsecuente de un terremoto

de magnitud 6,4 o superior a ocurrir antes del 14 de agosto de 2005, dentro de un área

de 12.660 millas cuadradas.

No se cumplió ninguna predicción, tampoco fue una predicción para un gran

evento en Japón o para un terremoto moderado en el área de Eslovenia (CEPEC

Report, 2004a,b).

El estado actual de la predicción M8 puede ser encontrado en

http://www.phys.ualberta.ca/mirrors/mitp/predictions.html. La emisión de continuos

TIPs, con una tasa de éxito suficientemente grande fue implementado por Harte et

al.(2003)para el algoritmo en el SSLib (del inglés statistical seismology software library)

para tanto su uso como para su prueba (R Development Core Team, 2006). Esto fue

seguido por una modificación en el método para producir un modelo probabilístico

continuo para el M8 para Nueva Zelanda, en vez de una predicción de alarma binaria

(Harte et al., 2007). Los resultados fueron favorables cuando se probaron contra una

hipótesis nula aleatoria, aunque la motivación física para una predicción exitosa no

queda clara. Un inconveniente de M8 es que es una predicción binaria, por eso su

comportamiento es evaluado solo por la proporción de éxitos, fallos y falsas alarmas.

Además, debido a que una TIP es esbozada para regiones geográficas largas y para

largas duraciones, la ganancia de probabilidad de una predicción que es espacialmente

exacta pero temporalmente aleatoria, es generalmente pequeña aunque pudiera

haber muy pocos fallos (Romachkova et al. (1998). La cuestión sigue siendo si esta alta

fiabilidad puede ser traducida en una ganancia de probabilidad significativa que se

probará como útil para la comunidad de riesgos.

2.3.5 RTL

El RTL es un método estadístico en el cual tres parámetros relacionados con

terremotos (tiempo, lugar y magnitud) son incluidos en un coeficiente ponderado

(Sobolev and Tyupkin, 1997, 1999). El algoritmo combina la distancia, tiempo y

longitud de ruptura de sismicidad agrupada en una medida combinada. La designación

de Region-Time-Lenght (RTL) surge por la región (en inglés Region) (distancia al

epicentro), el intervalo de tiempo (en inglés Time) y la longitud (en inglés Length)

(tamaño de ruptura, por ejemplo la magnitud). El algoritmo RTL es un método

estadístico para investigar cambios de sismicidad previos a grandes eventos. Estos

cambios ocurren sobre regiones del orden de 100 km, y unos pocos años antes de

grandes eventos (Mignan and Di Giovambattista, 2008).

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 29

Recientemente ha sido usado para aislar inactividad anómala y sismicidad previas

a grandes eventos en Japón, Rusia, Turquía e Italia (Di Giovambattista and Tyupkin;,

2000; Gentili, 2010; Huang, 2006; Huang and Nagao, 2002; Huang and Sobolev, 2001;

Huang et al., 2001, 2002; Sobolev, 2001; Sobolev et al., 2002; Wyss et al., 2004).

El parámetro RTL, Q, es definido como el producto de 3 funciones: ���, �� = �∑ exp�−��/� �!��� " − �#$��, �� (2.3.2) %��, �� = �∑ exp�−�� − ���/� �!��� " − %#$��, �� (2.3.3)

&��, �� = '∑ ()�*+, −!��� &#$��, ��- (2.3.4)

donde r0 y t0 son tiempo y distancia características, ri es la distancia desde x, ti el

tiempo de ocurrencia y li es la dimensión de ruptura, la cual es una función de

magnitud Mi del i-ésimo evento.

El valor de lise calcula usando la relación empírica entre el tamaño de la fuente y la

magnitud del terremoto, Mi: log�1�� = 0.445 − 1.289 (2.3.5)

Aquí n es el número de eventos, ri cae en un círculo de radio 2r0, (t−ti)≤2 t0 y

Mmin≤Mi≤Mmax, r0 y t0 son distancias características e intervalos de tiempo.

Típicamente, r0=50 km, t0=1 año, y Mmax~3.8. Rbk(x,t), Tbk(x,t) y Lbk(x,t) son las

tendencias de fondo de R(x,t), T(x,t) y L(x,t), respectivamente. R(x,t), T(x,t) y L(x,t) son

funciones adimensionales normalizadas por su desviación estándar σR, σT y σL,

respectivamente. El parámetro RTL (en unidades del producto de la desviación

estándar σ=σRσTσL) describe la desviación del nivel de fondo de la sismicidad. Un RTL

negativo es interpretado como inactividad y un RTL positivo como una activación (Di

Giovambattista and Tyupkin, 2000; Huang, 2004; Mignan and Di Giovambattista,

2008).

El análisis se lleva a cabo en un catálogo desagrupado. Los eventos más pequeños,

basados en la magnitud mínima de terminación, son incluidas en el análisis (Mignan

and Di Giovambattista, 2008). Nótese de las ecuaciones anteriores que el coeficiente

de R y T se incrementa exponencialmente cuando un terremoto es localizado cerca del

lugar de prueba en cualquier tiempo o distancia. Inversamente, una distancia mayor

proporciona un decrecimiento exponencial. L crece si el terremoto previo tiene una

magnitud mayor, o decrece cuando la magnitud es más pequeña. El parámetro RTL es

designado de tal forma que la inactividad sísmica resulta en una anomalía negativa en

comparación con los antecedentes promedios y la activación sísmica resulta en un

incremento del parámetro RTL (Di Giovambattista and Tyupkin, 2000; Huang, 2004).

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 30

Huang et al., 2002 presentó el parámetro Q, una media de los valores RTL sobre

algún espacio de tiempo [t1, t2], para cuantificar la inactividad sísmica en cualquier

posición (x, y, z).

:��, ;, ��, �<� = �∑ �%&��, ;, =, ����� � (2.3.6)

donde ti es el tiempo en el espacio [t1, t2], RTL(x,y,z,ti) es el parámetro RTL

calculado como el producto de 3 funciones y m es el número de puntos de datos

disponible en [t1, t2]. Usando esta técnica, fue detectada inactividad significativa

sísmica precursora en el epicentro del Mw=7,4, el 17 de agosto de 1999 en Izmit

(Turquía) y fue seguido por una fase de activación de aproximadamente dos años

antes del sismo principal.

En una revisión de estudios de los terremotos M≥7 en Kamchatka (Rusia), Tottori

y Kobe (Japón) Huang (2004) se mostró que la inactividad sísmica generalmente

empieza unos años antes de la ocurrencia del mayor terremoto y dura de 1 a 2,5 años.

Esto es seguido de un periodo de activación sísmica que generalmente dura varios

meses. La dimensión lineal de la zona de inactividad es alcanzada a unos pocos cientos

de kilómetros, lo cual es aproximadamente 10 veces más grande que la zona de

activación. El sismo principal es más probable de ocurrir una vez la región fuente

relevante ha pasado a través de las etapas de inactividad y activación.

El análisis RTL también ha sido aplicado retrospectivamente a Grecia (Huang et al.,

2001; Sobolev, 2007; Sobolev and Tyupkin, 1997), Japón (Huang, 2004, 2006), Turquía

(Huang et al., 2002), Tailandia (Chen andWu, 2006), China (Jiang et al., 2004; Rong and

Li, 2007) e Italia (Di Giovambattista and Tyupkin, 2000, 2004). Chen and Wu (2006) and

Gentili (2010) aplicaron una mejora al algoritmo en el cual optimizaban el algoritmo

RTL, primeramente calculando muchos conjuntos de valores RTL para una variedad de

r0 y t0 y computaron el coeficiente de correlación sobre pares de funciones RTL. La alta

correlación entre dos funciones RTL ocurre cuando los valores de r0 y t0 se aproximan

al valor óptimo (Chen and Wu, 2006). Gentili (2010) plantea la hipótesis de que la

inactividad es un precursor mejor que la activación, y propuso un algoritmo, RTLsurv,

basado en el método de Chen and Wu (2006) que considera todos los periodos

potenciales de inactividad y deja de lado los periodos de activación.

En casi todos los casos enumerados anteriormente, fue encontrado que la

inactividad sísmica tiene lugar aproximadamente de uno a dos años antes del evento y

es seguido de periodos de activación que duran desde 6 meses a un año. Como tal, las

regiones espaciales y temporales sobre cuales podría probarse como óptima para

predicciones a medio plazo. Sin embargo, a pesar de lo consistente que puede parecer

este método, no ha sido adaptado para una técnica de predicción operacional para

pronósticos a medio plazo. Pruebas limitadas contra una hipótesis nula aleatoria han

sido llevadas a cabo. Mientras Huang (2006) encontró que el algoritmo RTL actuaba

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 31

significativamente mejor para el terremoto de Tottori en Japón en el año 2.000, Zechar

and Zhuang (2010) encontraron que una evaluación más extensa de múltiples

predicciones mostraron mínima ganancia de probabilidad sobre predicciones

aleatorias. Evaluaciones más extensas requerirían pruebas aún más extensas del

patrón con el objetivo de determinar el orden de su ocurrencia, para construir

modelos de error, y para investigar la tasa de falsos positivos y fallos para predecir.

2.3.6 LURR

La tasa de respuesta de carga y descarga (LURR del inglés Load-Unload Response

Ration) originalmente fue propuesta para medir el cambio energético sísmico en los

meses y años anteriores a un gran evento de modo que podría ser usado como un

vaticinador de terremotos (Yin et al., 1995).

La idea física es que, cuando la corteza está cercana a la inestabilidad, más energía

es liberada en el periodo de carga que en el periodo de descarga. Si uno puede medir

la tasa entre periodos conocidos de carga y descarga, entonces puede ser derivada una

medida que determine con precisión tiempos y lugares de alta liberación de energía

como un precursor potencial. Aunque la fuerza de marea de capacidad de

desencadenante de terremoto sigue siendo controvertido, estudios en años recientes

han sugerido que es un efecto medible, al menos en ciertas regiones. Ciertamente, se

espera que tensiones de marea afecten a grandes cortezas terrestre (Cochran et al.,

2004; Lockner and Beeler, 1999; Rydelek et al., 1992; Smith and Sammis, 2004; Tanaka,

2010; Tanaka et al., 2002; Vidale et al., 1998, y otros). En el caso de LURR, la naturaleza

cíclica de las tensiones de marea se plantea como hipótesis para imponer carga y

descarga en la corteza que corresponde con valores positivos o negativos de la tensión

de fallo Coulomb de marea (CFS del inglés Coulomb Faiulure Stresses). En LURR

periodos de carga y descarga son identificados basados en la marea terrestre

induciendo perturbaciones en el CFS de manera óptima en fallas orientadas. (Feng et

al., 2008; Mora et al., 2002; Peng et al., 2006; Wang et al., 2004a,b; Yin and Mora,

2006; Yin et al., 1995, 2000, 2006, 2008a,b, 2010; Yu and Zhu, 2010; Yu et al., 2006;

Zhang et al., 2004, 2006, 2010).

LURR ha sido empleado principalmente en la predicción de terremotos medios. La

tasa LURR es calculada desde

> = (∑ ?+@AB+CD ,B�∑ ?+@AE+CD �E (2.3.7)

donde E denota energía sísmica (Kanamori and Anderson, 1975), "+" es para

eventos de carga y "-" para eventos de descarga y m=1/2 de forma que Em denota la

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 32

tensión de Benioff. En teoría, m podría ser establecida para calcular otras medidas

sísmicas (Yin et al., 2008a).

Para un catálogo dado, el incremento de tensión CFS causado por la carga de

marea es calculado para cada terremoto. La variación de energía asociada es asignada

por el signo positivo o negativo para carga o descarga, respectivamente. Las regiones y

periodos de tiempo son entonces escaneados y la tasa LURR Y, es calculada y

comparada con grandes eventos. La tasa LURR generalmente fluctúa sobre un valor de

uno, pero son observados mayores valores LURR normalmente algunos años o meses

antes de un fuerte terremoto (Yin et al., 2008b). Típicamente estos valores se

incrementan a un pico, y después caen de nuevo tímidamente antes de un evento. El

tiempo y tamaño de las regiones de alerta se escala con el tamaño de los eventos

próximos. Los picos del LURR ocurren en algún lugar entre los 6 meses antes de un

terremoto de magnitud aproximada a 5, y hasta dos años antes de un evento de

magnitud aproximada a 8. El tamaño del diámetro de la región oscila entre 100 km

para un evento de magnitud aproximada a 5 hasta 1000 km para un terremoto de

magnitud aproximada de 8 (Peng et al., 2006; Yin et al., 2010).

La técnica LURR ha sido aplicada principalmente en China, California y Sumatra y

mostró tener capacidades predictivas retrospectivas (Yin et al., 2008a,b, 2010; Zhang

et al., 2006, y otros).

Sin embargo, no tiene éxito en retrospectiva prediciendo la secuencia de Lander

de 1.992. Recientes mejoras en la metodología incluyen búsqueda para la orientación

de tensión óptima en la suposición de que, estadísticamente, las fracturas están

orientadas en la dirección de tensión regional. Esta orientación es llamada orientación

de falla máxima (MFO del inglés Maximum Faulting Orientation) y, después de la

optimización para esta dirección de falla, el terremoto de Landers muestra un pico

LURR como lo hace el terremoto de Sumatra de 2004 (Yin and Mora, 2006; Yin et al.,

2008a).

La técnica LURR sigue siendo controvertida. Smith and Sammis (2004) and Trotta

and Tullis (2006) aplicaron el método LURR para el mismo conjunto de datos de

California como Yin et al. (1995). La función LURR es muy variable y dependiente de los

parámetros de entrada, incluyendo la elección del radio de la región analizada, el

espacio de tiempo sobre los que los resultados son promediados, y la magnitud de

corte superior.

Además, mientras que Peng et al. (2006) determinó que LURR actuaba

significativamente mejor que una hipótesis nula aleatoria, Trotta and Tullis (2006)

encontraron que los valores de carga y descarga asignados aleatoriamente causan una

cantidad igual de variación en valores LURR como valores de onda actual. La elección

de la función de actividad sísmica también influyó en los resultados. Tanto la tensión

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 33

de Benioff como la magnitud de corte superior afectan al rol del terremoto mayor en

el análisis así como la falta de integridad (Smith and Sammis, 2004).

También señalaron que, en los 20 años anteriores al terremoto de Northridge de

1.994, hubo muchos picos de LURR de la misma amplitud o más grandes que el usado

para predecir ese evento (Trotta and Tullis, 2006). Fluctuaciones aleatorias tales como

esta producen falsos positivos que reducen en el LURR la ganancia de probabilidad

potencial asociada y reduce su eficacia como una técnica de predicción operacional.

Finalmente, los esfuerzos para crear una predicción probabilística usando LURR por Yu

and Zhu (2010) podría ayudar a resolver las preguntas que rodean la capacidad de

predicción del método.

2.3.7 Índice informático de patrón

El índice PI (del inglés Pattern Informatics) es un método analítico para cuantificar

los cambios de tasa de sismicidad espacio-temporal en sismicidad histórica (Holliday et

al., 2006a; Rundle et al., 2002; Tiampo et al., 2002). Prácticamente, el método es una

medida objetiva en el cambio local en sismicidad relativo a la sismicidad de fondo a

largo plazo que ha sido usada para predecir grandes terremotos. El método identifica

patrones espacio-temporales de activación anómala o inactividad que sirve como

proxys para cambios en la tensión subyacente que puede preceder a grandes

terremotos. Como resultado, estas anomalías pueden estar relacionadas con la

localización de grandes terremotos que ocurren en los años siguientes a su formación

(Tiampo et al., 2002, 2006a). De nuevo, la teoría sugiere que estas estructuras sísmicas

están relacionadas con cambios en los niveles de tensión subyacente (Dieterich, 1994;

Dieterich et al., 2002; Tiampo et al., 2006a; Toda et al., 2002).

El índice PI es calculado usando datos de catálogos instrumentales de áreas activas

sísmicamente. Debido a que la relación magnitud-frecuencia GR implica que, para un

volumen espacial V suficientemente grande y para un intervalo de tiempo

suficientemente largo, la frecuencia de terremotos sea constante para magnitudes

m≥mc (Richter, 1958; Turcotte, 1997), se calcula sobre una gran región con una tasa de

fondo constante, o el valor a de la relación GR. Mc es la magnitud de corte denotando

la magnitud mínima de integridad. Los datos sísmicos son mapeados por ubicación en

recuadros. En California, un tamaño de recuadro de la cuadrícula de 0,1º en latitud y

longitud tuvo éxito, pero esto podría variar con las áreas tectónicas. Las series de

tiempo son creadas para cada una de estas ubicaciones mapeadas. Una casilla de

tiempo individual cuantifica el número total de eventos en cada ubicación que ocurrió

en ese intervalo de tiempo. Cada localización se denota con xi, donde i oscila desde 1

hasta N localizaciones totales. La tasa de actividad sísmica observada ψobs(xi,t) es el

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 34

número de terremotos por unidad de tiempo, de cualquier tamaño, en la casilla xi en el

tiempo t. Aquí el periodo de tiempo es un año, de modo que ψobs(xi,t) es el número

de eventos por año, quitando la media. La función S (xi,t0,t) de sismicidad media de

tiempo sobre el intervalo (t−t0) es F���, � , �� = ��GHGI�J ΨL#M���, ��N�GGI (2.3.8)

S(xi,t0,t) es calculada para N ubicaciones y t0 es un tiempo ajustado, tal como el

comienzo del catálogo. Designando promedios espaciales sobre los N compartimentos

con <>, la función de etapa S′(xi,t0,t) es definida para ser la media cero, función de

unidad-norma obtenida desde S (xi, t0, t):

FO��� , � , �� = P�Q+,GI,G�HRP�Q+,GI,G�S||P�Q+,GI,G�|| (2.3.9)

Aquí || S(xi,t0,t) || es la norma L2 o la raíz cuadrada de la varianza, para todas los

casillas espaciales. Para una región espacial y temporal suficientemente grande, las

medias espaciales a largo plazo son constantes, y el vector S′(xi,t0,t) es una medida

efectiva de las variaciones locales en sismicidad, dando datos sísmicos de buena

calidad. Dividiendo por la desviación estándar constante se normaliza la sismicidad

regional por su fondo y se aclara pequeñas fluctuaciones locales en sismicidad. Estos

cambios en sismicidad son designados por ΔS′(xi,t1,t2)=S′(xi,t0,t2 )−S′(xi,t0,t1). De nuevo,

ΔS′(xi,t1,t2) representa los cambios en la actividad temporal y espacial relacionada con

los cambios de tensión subyacentes en el sistema. Estos pueden ser positivos o

negativos, dependiendo de si es actividad sísmica identificada o inactividad (Tiampo et

al., 2002, 2006b).

Finalmente, ΔS′(xi,t1,t2) se promedia sobre todos los años base posibles, t0. Para

cualquier catálogo o periodo de tiempo dado, el índice PI, ΔP, es la potencia asociada

con ΔS′(xi,t1,t2), ΔP(xi,t1,t2)={ΔS′(xi,t1,t2)}2−μp., donde μp es la media espacial de

{ΔS′(xi,t1,t2)}2 o el fondo dependiente del tiempo (Tiampo et al., 2002).

En 2002, Rundle et al. publicaron una predicción prospectiva para California para

el periodo comprendido entre 2.000 y 2.010, ambos inclusive. Tiampo et al. (2002,

2006a) aplicó el índice PI a California con el objetivo de identificar variaciones espacio

temporales sistemáticas en sismicidad, incluyendo sombras de tensión después de

grandes eventos en el sur de California.

Los años transcurridos habían llevado a varias extensiones o modificaciones del

método PI, así como su aplicación a otros regímenes tectónicos. Por ejemplo, Tiampo

et al. (2006a) mostró que el método era capaz de detectar cambios premonitorios a

tiempo y predecir eventos que no estaban en el catálogo instrumental. En Tiampo et

al. (2006c), el método PI fue adaptado a pequeñas regiones alrededor de cada

anomalía individual, y fueron predichas dimensiones de ruptura para eventos

históricos con razonable exactitud. Este método también fue aplicado en Tiampo et al.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 35

(2008) a localizaciones identificadas por el método SAM.Las investigaciones en curso

sobre el método PI condujeron a lo que se llegó a conocer como la técnica del PI

modificado (MPI del inglés Modified PI). En este método, la sismicidad instrumental es

filtrada en magnitud y espacio (Chen et al., 2005; Holliday et al., 2005, 2006a; Nanjo et

al., 2006a,b).

El método MPI predijo retrospectivamente el terremoto de M7.6 en Chi-Chi en

1.999 y los eventos de M6.7 y M6.4 en Pingtung en alta mar en 2006 en Tailandia

(Chen et al., 2005; Wu et al., 2008a,b) así como el terremoto de M7.2 en Kobe en

1.995 en Japón (Nanjo et al., 2006a,b). También predijo prospectivamente el

terremoto de M6.8 en Niigata en 2.004 (Nanjo et al., 2006a,b), y los terremotos de

M8.1 en la isla Macquarie en 2.004 así como el de M9.0 en Sumatra en 2.004 (Holliday

et al., 2005).

Holliday et al. (2006b,c) adaptó el método PI combinándolo con el método de

intensidad relativa (RI del inglés relative intensity, detallado más adelante), llamándolo

RIPI. Después de señalar que los episodios de terremoto mayores preferencialmente

ocurren durante intervalos de tiempo cuando las fluctuaciones en intensidad sísmica,

como medía el PI, son menos importantes que el RI, calcularon un índice de habilidad

de Pierce para cada uno y restaron el índice PI al índice RI. Si esa diferencia de índice

de habilidad es positiva, se emite un aviso. El espacio de tiempo es definido por la

longitud media de tiempo necesario en esa región para producir tantos eventos del

tamaño de corte de magnitud mínima como en la magnitud predicha. Una predicción

retrospectiva RIPI para Sumatra produce un periodo de advertencia desde mediados

de 2003 hasta el evento de M9.0 en Diciembre de 2004 (Holliday et al., 2006b).

El método PI original continua siendo usado para predecir en otras regiones. Toya

et al. (2009) usó una técnica PI tridimensional para realizar predicción retrospectiva

para Tailandia y Sumatra. Trabajos recientes incluyen aplicaciones del método MPI

sobre varias regiones tectónicas en China (Jiang and Wu, 2008, 2010a; Zhang et al.,

2009). Jiang and Wu (2008, 2010a) hallaron que el método PI supera el método RI y

que pruebas retrospectivas predicen con exactitud el terremoto de M7.9 en

Wenchuan en 2.008. También hallaron que determinar los parámetros óptimos, tales

como el periodo de tiempo y la discretización de tamaño del recuadro, es difícil y da

como resultado un número significativo de falsos positivos

Este resultado particular destaca un tema importante en la predicción basada en

sismicidad. Muchos algoritmos requieren momentos constantes (en particular ver

ecuación (2.3.8)), y los catálogos sísmicos instrumentales a menudo están sujetos a

efectos sistemáticos, tales como la cobertura de red variante y la magnitud mínima de

integridad. Ello da como resultado objetos en los datos que aparecen como anomalías

o falsos positivos. Un método para mejorar predicciones basadas en sismicidad en

general, y el algoritmo PI en particular, basado en la métrica Thirumalia-Mountain

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 36

(TM) (Thirumalai and Mountain, 1993; Thirumalai et al., 1989), asegura que la elección

de la región espacial, discretización y periodos de tiempo da como resultado series de

tiempo estacionarios. Las aplicaciones de este método TM previo a implementar la

predicción mejora significativamente la exactitud y específicamente reduce el número

de falsos positivos en la predicción (Tiampo et al., 2010).

Debe destacarse que, a pesar de que Zechar and Jordan (2008) encontraron que

el método PI no actuaba mucho mejor que el método RI, no estaban realizando dicho

test sobre el intervalo total de diez años que fue el periodo de predicción publicado

(Rundle et al., 2002). Nanjo (2010) demostró que tanto el PI como el RI actuaban

significativamente mejor que el mapa de peligro sísmico nacional (NSHM del inglés

Natinal Seismic Hazard Map)

La dificultad de señalar el tiempo de los próximos eventos permanece como el

mayor inconveniente al método PI. A pesar de que el método actúa muy bien en la

predicción de eventos a medio plazo (en un periodo de tiempo de 5 a 10 años) con

muy pocos fallos (2 fallos en 39 eventos en un periodo de 10 años en California), la

cuestión sigue siendo si el gran número de anomalías restantes (falsos positivos) son el

resultado de la naturaleza cambiante del régimen de tensión sobre ese periodo de 10

años, o si son la firma de grandes eventos que tienen que ocurrir. Predicciones

retrospectivas en los catálogos sintéticos y de alta calidad sobre periodos de tiempo

incrementales podrían ayudar a resolver el primer problema; el segundo, de nuevo,

destaca la necesidad de periodos de tiempo más largos sobre los cuales observar la

evolución del sistema de falla natural (Jackson and Kagan, 2006; Schorlemmer and

Gerstenberger, 2007; Vere-Jones, 1995, 2006; Zechar et al., 2010).

2.4 Modelos de sismicidad arreglados

Los modelos de sismicidad arreglados son una clase más general de modelos de

predicción basados en sismicidad, los cuales definen las importantes características

físicas espacio-temporales de los procesos de terremotos, caracterizándose estas de

una manera matemática y/o probabilística, y calibrando el modelo basado en datos

disponibles de los catálogos sísmicos para regiones tectónicas particulares.

Originalmente desarrollado por Frankel (1995) el enfoque sísmico arreglado ha

sido extendido a muchos diferentes algoritmos y regiones por todo el mundo (ver, por

ejemplo, Helmstetter et al., 2006, 2007; Kafka, 2002; Kagan and Jackson, 1994, 2000;

Kagan et al., 2007; Nanjo, 2010; Rhoades and Evison, 2004; Stirling et al., 2002a, entre

otros).

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 37

Aunque el algoritmo arreglado particular varía, el uso de una función Gaussiana

bidimensional en la cual la distancia es específica para cada región tectónica es todavía

la técnica implementada más extendida (Frankel et al., 1996; Petersen et al., 2008). Los

modelos arreglados pueden ser formulados para contar la agrupación que existe en la

sismicidad natural como resultado de las correlaciones espaciales y temporales entre

eventos que surgen debido a las interacciones de transferencia de tensión (King et al.,

1994). Además, a pesar de que los datos de catálogo de terremotos actuales a menudo

son limitados por los cortos periodos de tiempo disponibles para los datos registrados,

particularmente en magnitudes pequeñas, el arreglado espacial puede compensar

esta falta de datos así como para errores en los datos, tales como los de magnitud y

localización (Nanjo, 2010; Werner and Sornette, 2008). A lo largo de los últimos 10

años, se han hecho significativos progresos en el desarrollo de métodos para

caracterizar los procesos físicos relacionados con la generación sísmica en esta clase de

modelos. Señalar que un gran número de técnicas han sido adaptadas a predicciones a

corto plazo del orden de días, ya sea como complemento o en lugar de predicciones a

medio plazo.

Los modelos de sismicidad arreglados son intuitivamente atractivos porque

concentran peligros sísmicos en áreas que han tenido terremotos en el pasado, una

propiedad de la sismicidad que ha sido justificada por un gran número de

investigadores (ver por ejemplo Allen, 1968; Davison and Scholz, 1985; Frankel et al.,

2002; Kafka, 2002; Petersen et al., 2007). A pesar de que muchas versiones pueden ser

bastante complicadas, la formulación básica es relativamente sencilla y los resultados

pueden ser fácilmente probados contra estadísticas de catálogo instrumentales.

Virtualmente todos los métodos pueden ser comparados con hipótesis nulas tanto

aleatorias como agrupadas de una manera relativamente sencilla. Muchas también

pueden evolucionar con el tiempo, potencialmente monitorizando las dinámicas del

sistema de fallas. Predicciones de modelos de peligro proporcional (PHM del inglés

proportional hazard model), por ejemplo, son recalculados en la actualidad tanto en

intervalos regulares como en grandes eventos que se producen que modifican la

naturaleza espacio-temporal en curso de la sismicidad en la región (Faenza and

Marzocchi, 2010). Sin embargo, errores o falta de información en los catálogos

instrumentales pueden dar como resultado grandes errores en la predicción

resultante, particularmente para grandes eventos que tienen escasas estadísticas y

aquellas áreas que han estado inactivas en los últimos tiempos (Werner and Sornette,

2008).

Aquí discutimos esos métodos, los cuales han tenido mayor impacto en el ámbito

y son un área en curso de investigación. En particular, un gran número de

metodologías de reconocimiento de patrones, aunque podrían mostrar una promesa

significativa, son omitidas porque son difíciles de implementar o no son aplicadas

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 38

extensamente hasta la fecha. Esto incluye técnicas de redes neuronales (Adeli and

Panakkat, 2009; Alves, 2006; Madahizadeh and Allamehzadeh, 2009; Sri Lakshmi and

Tiwari, 2009) , algoritmos de reconocimiento de patrones tales como agrupamientos k-

means (Morales-Esteban et al., 2010), métodos de modelos de Markov ocultos (Ebel et

al., 2007), y simulaciones de autómatas celulares (Jiménez et al., 2008). La siguiente

metodología lleva a cabo investigaciones de predicción en curso en regiones sísmicas

activas y con catálogos de alta calidad.

2.4.1 EEPAS

El método conocido como “cada terremoto es un precursor acorde con la escala”

(EEPAS del inglés Every Earthquake is a Precursor According to Scale) está basado en el

fenómeno de incremento de escala precursora, donde incrementos sísmicos menores

ocurren antes y en la misma región que grandes eventos de la misma forma que las

réplicas. Como resultado, es tanto un modelo sísmico arreglado como basado en física,

pero es clasificado aquí como el segundo, porque la predicción generada está

intrínsecamente vinculada con las distribuciones asociadas con cada parámetro

modelado.

Originalmente formulado en base a observaciones de nubes precursoras (Evison

and Rhoades, 1997, 1999), la idea fue extendida hasta la clase general de sismos

previos para identificar precursores localizados (Evison and Rhoades, 1999, 2002,

2004). El modelo estocástico EEPAS fue formulado basándose en la simple idea de que

cada terremoto es un precursor, y su entrada en el modelo es escalado con su

magnitud (Rhoades, 2010; Rhoades and Evison, 2004).

Para una revisión más exhaustiva de la historia del EEPAS ver Rhoades, 2010, pera

la relación para la tasa de densidad sísmica total, λ(t,m,x,y), en cualquier magnitud, m,

localización, x, e y, y tiempo, t, es dado por λ�t,m, x, y� = μλ ��,Y, �, ;� +∑ ƞ�Y��G+\GI,+\I λ���,Y, �, ;� (2.4.1)

donde μ es constante, λ0 es la tasa de densidad referencia , t0 es el tiempo de

comienzo del catálogo, y η es una función normalizada. λi es un incremento transitorio

de la función de tasa de densidad futura debido a cada terremoto λ�t,m, x, y� = ]� �̂����_���Y�h����, ;� (2.4.2)

y

�̂���� = a�GHG+��GHG+�bcde�� �√<g h�i '− �< �djk�GHG+�HlcH#c+bc �<-, (2.4.3)

_���Y� = �bm√<g h�i '− �< �HlmH#m+bm �<-, (2.4.4)

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 39

ℎ����, ;� = �<gbop� qo@+ h�i r−��QHQ+�H�sHs+�p<bop� qo@+ �t. (2.4.5)

H(s) es la función Heaviside y aM, bM, σM, aT, bT, σT, σA, y bA son parámetros

derivados de relaciones recursivas y predictivas para catálogos de terremotos

regionales (Rhoades, 2007).

Cualitativamente, el modelo es estructurado como un proceso de ramificación de

tipo epidémico, pero aquí los terremotos pequeños no desencadenan los grandes. En

vez de eso, como el método PI, son un sensor para un próximo evento grande (Evison

and Rhoades, 2001). También, las variadas versiones de la distribución normal utilizada

anteriormente cuantifica los errores distribuidos normalmente en las relaciones de

predicción de los datos, mientras que la magnitud-frecuencia estándar es capturada en

la función normalizada η(mi), la cual es tomada de la relación frecuencia-magnitud del

catálogo GR y, para la mayoría de aplicaciones, se reduce a una constante (Rhoades,

2007).

Las relaciones precursoras, originalmente obtenidas por Evison (1977), revelan

que las escalas de tiempo de predicción varían de 5 a 30 años para magnitudes que

van de 5 a 8, con un área de ruptura correspondiente de 2.000 a 20.000 km cuadrados,

en el mismo orden que la región de réplica. Eventos de M≥4 son requeridos como

entrada con el objetivo de predecir terremotos con M≥5.8 (Rhoades, 2007; Rhoades

and Evison, 2004).

El método EEPAS ha sido usado para predicciones sísmicas en Nueva Zelanda,

California, Grecia y Japón, incluyendo un modelo EEPAS que fue sometido a los tests

de RELM (Rhoades, 2007; Rhoades, 2010; Rhoades and Evison, 2005; Rhoades and

Gerstenberger, 2009). Recientemente, Rhoades and Gerstenberger (2009) formularon

un modelo de predicción que incluye un componente a medio plazo del EEPAS y un

componente a corto plazo de la probabilidad del modelo de terremotos a corto plazo

(STEP del inglés short-term earthquake probabiliy) para actividades de réplicas. Debido

a que esa es la fuerza del EEPAS, proporciona un modelo consistente estadístico para

los sismos previos, esto presenta una importante oportunidad para integrar y probar la

importancia de los supuestos físicos subyacentes así como su capacidad de predicción

2.4.2 Sismicidad arreglada dependiente del tiempo

En 1.994, Kagan y Jackson describieron por primera vez un método para

desarrollar modelos sísmicos arreglados extrapolando la información de catálogos

sísmicos en predicciones probabilísticas. Efectivamente, este es una predicción

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 40

independiente del tiempo en la cual las tasas de catálogos sísmicos históricos e

instrumentales son espacialmente prorrateados para periodos de tiempo particulares.

En los años siguientes, este método particular ha sido aplicado en el noroeste y

sudeste del pacífico (Jackson and Kagan, 1999; Kagan and Jackson, 2000), California

(Helmstetter et al., 2006; Kagan et al., 2007), and Italy (Werner et al., 2010).

Aquí la tasa de densidad de terremoto, Λ(θ,ɸ,m,t), la probabilidad por unidad de

área, tiempo y magnitud, es asumido como constante en tiempo y es estimado como

la suma de contribuciones de todos los eventos a partir de una magnitud de corte

prescrita. Como en el caso con los modelos sísmicos más arreglados, pueden ser

aplicados para cualquier mínima magnitud de corte.

Por ejemplo, Kagan et al. (2007) emplea una magnitud de corte de 5.0 mientras

que en la versión de Helmstetter et al. (2007) la magnitud de corte es 2.0. La forma

general de la función es Ʌ�θ,ɸ,m, t� = f�θ,ɸ�g�m�h�t� (2.4.6)

donde θ es la latitud, ɸ es la longitud,m es la magnitud, t el tiempo, f(θ,ɸ) es la

función de densidad espacial y g(m) es la distribución de magnitud normalizada. h(t) es

la tasa (numero por unidad de tiempo) de todos los terremotos dentro del área de

interés donde, para una predicción independiente del tiempo, h(t) es asumida que es

constante. Es importante destacar la similitud de las fórmulas de las ecuaciones (2.4.6)

hasta (2.4.2). De nuevo, aquí la variación del tiempo se representan por una constante,

creando una predicción dependiente del tiempo, mientras que en EEPAS, esa función

tiene una dependencia logarítmica normal.

Varios investigadores emplean diferentes funciones de densidad espacial. En

general, f es una suma ponderada de núcleos arreglados, cada uno centrado en el

epicentro de un evento previo. Por ejemplo, Kagan and Jackson (1995) emplean la

función ^�y, z� = ∑ �̂�y�, z�� � + {, (2.4.7)

donde s es una constante que representa los eventos inesperados en el catálogo y

�̂�y�, z�� = �̂���� = ��Y� − 5.0� (�*+, �1 + }~�{<����" + {. (2.4.8)

La distancia de cada epicentro, ri es redondeada a 200 km, de lo contrario la

función del origen sería igual a cero. A es una constante normalizada δ es un

parámetro cuantificando el grado de concentración azimutal, y ψ mide la orientación

del punto del mapa relacionado con el plano azimutal de falla para un evento dado en

un catálogo (Kagan and Jackson, 1994, 1995).

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 41

Helmstetter et al. (2007) and Werner et al. (2010) emplean una función de núcleo

diferente para el arreglo espacial,

��+���� = ���+��|*�|p��+p�D.� (2.4.9)

Aquí di es la distancia de arreglo adaptada y C es una constante de normalización.

La función de densidad espacial puede ser optimizada por varios parámetros

usando el catálogo existente. Helmstetter et al. (2007) emplea una técnica de

probabilidad logarítmica, por ejemplo. Finalmente, g(m), la distribución de tamaño de

terremoto, es elegida para seguir una relación de frecuencia-magnitud GR cónica (Bird

and Kagan, 2004; Gutenberg and Richter 1944) con parámetros que varían con las

regiones tectónicas. De nuevo, los resultados son escalados para el periodo de tiempo

predicho de interés.

La predicción de Jackson and Kagan (1999) para la cuenca occidental del Pacífico

y California puede ser consultado en http://scec.ess.ucla.edu/~ykagan/. Una

predicción CSEP a 5 años para Italia puede verse en (Werner et al., 2010).

A pesar de que predicciones independientes del tiempo como estas, escaladas al

periodo de tiempo apropiado y con errores bien caracterizados, son importantes y

muy útiles para estimaciones de riesgo sísmico, implícito en este trabajo está el

supuesto de que un catálogo sísmico completo proporcionara toda la información

requerida, probabilísticamente, en la localización y tiempo de eventos futuros. Esto

podría ser posible, al menos en escalas de tiempo históricos, si los catálogos tuvieran

un registro completo de todos los posibles eventos en una región tectónica, lo cual no

es actualmente el caso. Además, este algoritmo particular no incluye la posibilidad de

que haya fluctuaciones dependientes del tiempo a corto plazo que podría mejorar las

capacidades de predicción en escalas de tiempo variables.

2.4.3 Metodologías ETAS

La hipótesis de secuencia de réplica de tipo epidémico original (ETAS del inglés

epidemic-type aftershock sequence) fue formulada por Ogata (1985a,b, 1987, 1988,

1989). No sólo es un modelo de secuencias de réplica, ETAS es fundamentalmente un

modelo de sismicidad interactiva desencadenante en la cual todos los eventos tienen

roles idénticos en el proceso de activación. De nuevo, es tanto un modelo basado en

física como un modelo de sismicidad arreglado, pero es clasificado aquí como lo

segundo porque las predicciones están intrínsecamente conectadas a las

distribuciones asociadas con cada parámetro. En este proceso cada terremoto se

considera como desencadenante por eventos anteriores y como un provocador

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 42

potencial para terremotos subsecuentes, por ejemplo, cada evento es una réplica

potencial, sismo principal o sismo previo, con sus propias consecuencias de réplica.

Para sismicidad general un plazo de fondo con un componente aleatorio es añadido a

la formulación. En los años siguientes, el modelo ha sido usado en muchos estudios

para describir la distribución espacio-temporal y características de la sismicidad actual

Console and Murru, 2001; Console et al., 2003; Helmstetter and Sornette, 2002,

2003a,b; Ma and Zhuang, 2001; Ogata, 1988, 1998, 1999, 2005; Ogata and Zhuang,

2006; Saichev and Sornette, 2006; Vere-Jones, 2006; Zhuang et al., 2004, 2005 entre

otros). Para una revisión más extensa de los primeros años de desarrollo y aplicación

de ETAS, ver Ogata (1999) and Helmstetter and Sornette (2002).

En años recientes, el ETAS ha sido utilizado por un gran número de investigadores

para el desarrollo de modelos de predicción sísmicos suavizados, a corto y medio plazo

(Console and Murru, 2001; Console et al., 2003; Console et al., 2006a,b, 2007, 2010;

Falcone et al., 2010; Helmstetter et al., 2005, 2006, 2007; Lombardi and Marzocchi,

2010a,b; Murru et al., 2009). En general, el algoritmo ETAS es usado en un modelo

ramificado donde el evento padre de una magnitud y localización dada produce una

serie de eventos hijos que ocurren en alguna región y tiempo específicos. El número

medio de hijos producidos por cada evento padre es la relación de ramificación

(Helmstetter and Sornette, 2003b). El modelo ETAS incluye la contribución de cada

evento previo basado en la magnitud del terremoto desencadenante, la distancia

espacial desde el evento desencadenante, y el intervalo de tiempo entre el evento

desencadenante y el tiempo de la predicción, y sigue la fórmula ����, ;, �,Y� = ℎ�� − ���h�i�−��Y� −Y �"^�� − �� , ; − ;�� (2.4.10)

Destacar, de nuevo, que son de la misma forma que las ecuaciones (2.4.2) y

(2.4.6), anteriores: una normalización de la constante de tres funciones, una de las

cuales codifica el comportamiento temporal, una segunda la relación de magnitud, y

una tercera el patrón espacial. Aquí, i es el evento individual, xi e yi son las

localizaciones de ese evento, mi es la magnitud del evento, m0 es un límite inferior en

la magnitud desencadenante, β=bln10, donde b es la pendiente de la relación

magnitud-frecuencia GR (Console et al., 2010; Helmstetter and Sornette, 2003b).h(t−ti)

se toma de la ley de Omori modificada (Ogata, 1983; Utsu et al., 1995) : ℎ�� − ��� = �� + ~�H���Y�, (2.4.11)

donde c y p son parámetros característicos, p>1 y ��Y� = �10��HI� . (2.4.12)

ρ(m) da el número total de réplicas provocadas por un evento de magnitud m. α

normalmente es un valor menor que b (~0.7–0.8) mientras que en algunas aplicaciones

se establece a cero, dando como resultado el desencadenamiento solo por terremotos

mayores que m0 (Console et al., 2010; Helmstetter and Sornette, 2003a, 2003b;

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 43

Lombardi and Marzocchi, 2010a,b). Las investigaciones han mostrado también que es

posible sustituir otros modelos físicos en lugar de la ley de Omori. Por ejemplo,

Console et al. (2007) emplea la ley de velocidad y estado para generar tasas sísmicas

en un modelo de tipo epidémico (Console et al., 2006a, 2010; Dieterich, 1994; Falcone

et al., 2010; Ruina, 1983).

La función de distribución espacial puede variar, pero normalmente es escogida

por ser una función circular de la distancia de activación, por ejemplo:

^��, y� = r �+p�*p��+p�t� (2.4.13)

donde f(x,y) es convertido a coordinadas polares, r es la distancia de x a y, q es un

parámetro libre que modela el decaimiento con la distancia, y di es la distancia de

activación para un terremoto dado. di puede ser caracterizado como una función de

magnitud, tal como (Console et al., 2010; Kagan, 2002; Lombardi and Marzocchi,

2010a,b) N� = N 10 .��+HI�. (2.4.14)

Con el objetivo de producir un mapa de predicción usando ETAS, una tasa de

sismicidad de fondo independiente del tiempo generalmente es añadida al modelo de

ramificación ETAS dependiente del tiempo. Mientras que este componente podría

estar basado en un mapa de riesgo a largo plazo, como en el modelo de probabilidad

de réplica a corto plazo (STEP) (ver más abajo), o en una predicción independiente del

tiempo a largo plazo. La fórmula de la ecuación final es: ���, ;, �,Y� = ����, ;� +∑ ����, ;, �,Y�GRG+ (2.4.15)

donde ν es la tasa de fondo para todo el catálogo y u(x,y) es un pdf de las tasas de

evento para toda la región (Console et al., 2010; Lombardi and Marzocchi, 2010a,

2010b).

En la práctica, los diversos parámetros anidados en las ecuaciones desde (2.4.10)

hasta (2.4.15) están determinados por los catálogos sísmicos regionales, y optimizados

para diferentes periodos de tiempo usando uno de los varios esquemas de

optimización potenciales. Además, debido a que la física del proceso ETAS está

dominada por el mecanismo de activación, muchas predicciones dependientes del

tiempo producidas con esta metodología son a corto plazo, del orden de días, como se

muestra en (Falcone et al., 2010).

Los modelos de predicción ETAS han sido aplicados en California, Italia, Grecia y

Japón (Console and Murru, 2001; Console et al., 2003, 2006a,b, 2007, 2010; Falcone et

al., 2010; Helmstetter and Sornette, 2003b; Helmstetter et al., 2006, 2007; Lombardi

and Marzocchi, 2010b;Murru et al., 2009), donde se ha demostrado que actúan mejor,

al menos en escalas a corto plazo, que el modelo de hipótesis nula de Poisson.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 44

Finalmente, en una versión de ramificación doble del algoritmo ETAS, el modelo de

ramificación doble (DBM del inglés double-branching model) fue desarrollado para

incorporar periodos físicos más largos en el modelo y adaptarlo para predicciones a

más largo plazo (Lombardi and Marzocchi, 2010a;Marzocchi and Lombardi, 2008). El

DBM incorpora un segundo proceso de ramificación, después de la aplicación de un

modelo ETAS, para tener en cuenta la modulación a largo plazo de ocurrencias de

terremotos. Después del ajuste del parámetro ETAS, el catálogo es desagrupado y la

sismicidad residual es modelada con una relación similar en forma al modelo original

ETAS dado anteriormente.

Los resultados para predicciones de 5 a 10 años se muestran en (Lombardi and

Marzocchi, 2010a).

2.4.4 Método de intensidad relativa

El modelo de predicción RI (del inglés Relative Intensity) fue propuesto por

primera vez por Holliday et al. (2005), principalmente como una hipótesis nula mejor

para testing predictivo que un modelo de sismicidad no agrupado aleatorio. La idea es

usar la tasa de ocurrencia de terremotos en el pasado con el objetivo de predecir la

localización de futuros grandes terremotos, en el que futuros grandes eventos están

considerados más probable donde actividad sísmica mayor ocurrió en el pasado

El algoritmo RI es el más simple de los modelos de sismicidad arreglados y fue

originalmente formulado como una predicción binaria, aunque ha sido modificada de

diversas formas desde aquella vez. Inicialmente, la región estudiada es representada

con casillas cuadradas

En California estos son típicamente 0.1º x 0.1º, así las localizaciones de predicción

son pequeñas, del orden de la dimensión de ruptura de la magnitud de predicción más

pequeña. El número de terremotos con magnitud M≥Mc, donde Mc es la magnitud

mínima de corte, en cada casilla es determinado sobre el periodo de tiempo del

catálogo. El marcador de RI para cada casilla es computado entonces como el número

total de terremotos en la casilla en ese periodo de tiempo dividido por el valor que

tiene el valor mayor. El valor del umbral en el intervalo [0,1] es entonces seleccionado,

y todos los valores anteriores que se espera que tenga un gran evento sobre el periodo

de predicción de interés, resulta en una predicción binaria. Las casillas restantes con

marcadores RI más pequeños que el umbral representan sitios en los cuales grandes

terremotos no se espera que ocurran. El resultado es un mapa de localizaciones en una

región sísmica donde los terremotos son previstos que ocurran en un futuro periodo

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 45

de tiempo a medio plazo. Destacar que un umbral alto reduce las regiones predichas

pero da como resultado más eventos que no están predichos, mientras que reducir el

umbral a su vez reduce los fallos para predecir pero incrementa las falsas alarmas

(Holliday et al., 2005).

El RI fue rápidamente adoptado como hipótesis nula para testing generales de

otras predicciones debido a su superioridad intrínseca en hipótesis sísmicas aleatorias

no agrupadas, un resultado natural y esperados porque los terremotos tienden a

ocurrir donde ya han ocurrido en el pasado (Frankel et al., 2002; Tiampo et al., 2002;

Zechar and Jordan, 2008). Más tarde, se expandió para usarse como modelo de

predicción por derecho propio (Holliday et al., 2006b;Nanjo, 2010; Shcherbakov et al.,

2010). El método RI fue aplicado para predicciones prospectivas en una gran variedad

de regímenes tectónicos, incluyendo California, Japón y por todo el mundo (Holliday et

al., 2005; Rundle et al., 2003; Nanjo et al., 2006a,b; Tiampo et al., 2002). Nanjo (2010)

demostró que el método RI en California se comportaba mejor que el NSHM sobre un

periodo de tiempo de 10 años. Holliday et al. (2006b, 2006c) demostró que, para

periodos de tiempo particulares, el método RI proporciona información importante en

la probabilidad de futuros eventos. Combinaba el método RI con el método PI en el

método de predicción RIPI (Holliday et al., 2006b), discutido de forma extensa

anteoriormente.

Nanjo (2010) amplió el método RI con el objetivo de convertir el método de un

sistema binario a un modelo CSEP testeable para Italia que predice el número de

terremotos en magnitudes predefinidas. La entrada final fue tanto modelos de 5 años

como de 10 años así como un modelo ajustado de 3 meses. Modificó la aproximación

original RI para el proceso de categorización de los datos con el objetivo de mejorar las

predicciones, lo cual añadía arreglo adicional (Holliday et al., 2007; Nanjo et al.,

2006a). La tasa de sismicidad está compuesta por cada casilla hallando la media sobre

el vecino de Moore, las ocho casillas que la rodean. Después, con el objetivo de

proporcionar una predicción continua para cada casilla, la predicción es extrapolada en

una casilla de magnitud dada dentro de un rango de magnitud también dada,

M1≤MbM2 usando la ley magnitud-frecuencia GR como la ofrecida por la sismicidad

histórica (Nanjo, 2010).

La metodología RI puede ser ampliada a otras medidas de sismicidad. Shcherbakov

et al. (2010) usó la tensión de Benioff acumulativa en cada celda durante un periodo

de entrenamiento con el objetivo de desarrollar una predicción mundial para un

periodo de tiempo futuro, donde la tensión de Benioff es la raíz cuadrada de la energía

del seísmo. La tensión de Benioff acumulada, B, en el tiempo t es computada usando

los datos del catálogo del CMT (Harvard) (http://www.globalcmt.org) de los años 1976

a 2007, inclusivos, para magnitudes M≥5.5, donde

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 46

�Qs��� = ∑ ��Qs�������G���� (2.4.16)

Aquí, E����� es la energía sísmica liberada por el i-esimo terremoto, (xy) es la

coordenada celular, y Nxy(t) es el número acumulativo de terremotos en el tiempo t.

Estos valores son normalizados dividiendo por el valor máximo, Bmax, para todas las

localizaciones de casillas. El mapa RI entonces es convertido en una predicción binaria

introduciendo un umbral de tensión de Benioff acumulativo. Esas celdas con tensiones

de Benioff mayores que este umbral constituyen celdas de alarmas donde son

predichos que ocurrirán terremotos futuros. Uno de los principales objetivos de este

trabajo fue desarrollar un procedimiento de optimización estándar para predicciones

binarias con el objetivo de seleccionar el umbral óptimo (Shcherbakov et al., 2010).

El método RI tiene significativas capacidades de predicción (Holliday et al., 2005;

Rundle et al., 2003; Nanjo, 2010; Nanjo et al., 2006a,b; Tiampo et al., 2002). Sin

embargo, como muchas de estas técnicas, produce una relativamente alta tasa de

falsos positivos. Mientras que los métodos existen para bajar esa tasa de falsos

positivos, la elección del umbral y del tamaño de la cuadrícula es crítico para su

rendimiento (Shcherbakov et al., 2010; Zechar and Jordan, 2010). También como se

esperaba, el método es sensible a la calidad de los datos, como intrínsecamente se

basa en eventos predichos donde altas tasas de actividad han ocurrido en el pasado.

Como resultado, áreas que han estado inactivas por largos periodos de tiempo darán

como resultado falsos negativos, o fallos, en predicciones a medio plazo. Sin embargo,

mejores adquisiciones de datos sísmicos con tiempo mejorarán en gran medida la

precisión de futuras predicciones RI.

2.4.5 TripleS

El modelo de sismicidad suavizado simple (TripleS del inglés simple smoothed

seismicity model), fue desarrollado como una prueba de un modelo muy simple para

predicción de terremotos con un número mínimo de parámetros. En su forma más

básica, aplica un filtro suavizado Gaussiano a un conjunto de datos del catálogo y

optimiza un sólo parámetro, σ, el cual controla la extensión espacial de arreglo, contra

predicciones retrospectivas (Zechar and Jordan, 2010).

El método sísmico arreglado más simple es la técnica de predicción RI, como se

detalla anteriormente en este trabajo. En ese modelo, el arreglo es anisótropo y

uniforme. TripleS en vez de eso aplica un arreglo Gaussiano isotrópico bidimensional

que usa una función de origen continua que permitía una región más amplia de

influencia:

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 47

�b��, ;� = �<gbp exp�− Qp�sp<bp � (2.4.17)

Integrado en dos dimensiones sobre los límites (x1, y1, x2, y2) la fórmula se

convierte en

�b����$, ;��$, ��, �<, ;�, ;<� = �� 'erf (Q���HQpb√< , − erf�Q���HQDb√< �- 'erf (s���Hspb√< , −erf �;h �−;1¡2�

(2.4.18) Zechar and Jordan (2010) desarrollaron tanto predicciones de 5 como 10 años

usando TripleS. Primero derivaban una relación entre distancia desde el epicentro y σ

con el objetivo de determinar la distancia en la cual el efecto de cualquier epicentro

desaparecía. Entonces implementaban un procedimiento de optimización para el

índice de habilidad del área, una métrica de rendimiento detallada en Zechar and

Jordan (2008). Experimentos de predicción retrospectivos fueron diseñadas para

optimizar la distancia de arreglo con respecto al índice de habilidad del área (Zechar

and Jordan, 2010).

La técnica TripleS proporciona una oportunidad importante para probar los

efectos de formulaciones complejas en predicciones basadas en sismicidad, y a la

inversa. Futuros resultados proporcionaran información sobre los resultados de primer

orden disponibles desde el modelo de sismicidad de arreglo simple y evaluarán los

beneficios adicionales de modelos físicos y matemáticos más complejos.

2.4.6 Agrupamiento de terremotos no de Poisson.

Como se destacó anteriormente, la mayoría de modelos de sismicidad alisados se

basan en la idea de que los terremotos tienden a ocurrir en el futuro donde han

ocurrido ya en el pasado (Allen, 1968; Davison and Scholz, 1985; Frankel et al., 2002;

Kafka, 2002; Petersen et al., 2007).

En el caso del modelo de agrupación de terremotos no de Poisson a corto plazo,

un modelo de predicción diario presentado al proyecto RELM por Ebel et al. (2007), se

extiende la suposición de que las propiedades estadísticas medias de las ocurrencias

espaciales y temporales de terremotos con M≥4.0 durante el periodo de predicción

será la de los últimos 70 o más años, incluyendo réplicas y sismos previos. La

formulación espacial inicial está basada en esta premisa.

Debido a que este es principalmente un algoritmo de predicción de réplicas, la

tasa de ocurrencia media es modelada usando la ley de Omori (Utsu et al., 1995),

formando la base para predecir actividad cerca del epicentro de un gran terremoto

siguiendo inmediatamente ese evento. Si un terremoto de M≥4.0 ocurre en algún

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 48

lugar de la región, un círculo de radio R es dibujado alrededor del epicentro, como

definen Gardner and Knopoff (1974). En el caso de California, la relación de

Reasenberg and Jones (1989) para la ley de Omori fue elegida para calcular la tasa

esperada de terremotos de M≥4.0. Además, la distribución de Poisson de tiempo entre

los eventos es la distribución estadística desde la cual son derivados predicciones a

corto plazo de nuevos sismos principales. La predicción asume que todos los eventos

de magnitud más pequeña que el sismo principal son réplicas. Si un nuevo evento

tiene una magnitud mayor que el primer evento, la predicción asume que el primer

terremoto fue un sismo anterior. Cuando la tasa de réplica/sismo previo predicha cae

por debajo de la tasa de sismo principal de fondo para cualquier localización dada,

entonces la tasa del sismo principal de fondo es sustituida. Finalmente, para esas

localizaciones que están fuera de las zonas de réplica, la tasa media de eventos M≥4

para un catálogo de terremoto desagrupado regional es calculado y esta tasa media

del sismo principal es distribuida a lo largo de toda el área proporcionalmente a su

distribución pasada (Ebel et al., 2007).

Ebel et al. (2007) detalla las varias elecciones de predicción para cualquier día

dado y como son combinados en predicciones a corto plazo. Destacar de nuevo que

uno de los beneficios de un mapa de sismicidad arreglado es que la discretización

puede ser usada para probar las limitaciones del algoritmo y los datos disponibles y, al

menos en principio, los errores asociados con ambos pueden también ser evaluados.

2.4.7 Modelos potenciales de terremoto sísmico

El modelo potencial de terremoto sísmico, como propuso Ward (2007), es otra

versión de un modelo de sismicidad arreglado donde la teoría principal es que los

terremotos son probables de ocurrir en el futuro en la misma localización en los que

ocurrieron en el pasado. Las actuales localizaciones y dependencias de tiempo del

evento son construidos desde este principio basado en alguna combinación de las

leyes aceptadas generalmente de sismicidad, la distribución de magnitud frecuencia

GR (Gutenberg and Richter, 1944), la ley modificada de Omori (Utsu et al., 1995), y la

ley de Bath (Båth, 1965). De nuevo el requerimiento básico es un catálogo

instrumental de localizaciones de terremoto, fechas, y magnitudes y la magnitud

mínima estimada de integridad, mc.

En el modelo potencial de terremotos sísmico presentado por Ward (2007) al

centro de pruebas RELM, dos catálogos que abarcan desde 1.850 hasta 2.003 y desde

1.925 a 2.003, de Kagan (2005) and Kagan et al. (2006), fueron probados

respectivamente. La tasa potencial de terremoto ρ(r) sobre un área dada es calculada

usando un filtro Gaussiano,

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 49

����� = %�lGH� ∑ ¢�£�H¤¥*+H*¦¥/§¨p�g§p© (2.4.19)

Aquí Tcat es el inverso de la duración del catálogo, r es la localización de cualquiera

dos puntos i y j, y j esta sobre todos los elementos mayores que la mínima magnitud.

Estas tasas arregladas están reescaladas para asegurar que el número total de

eventos es el mismo para el modelo como en la región del catálogo actual.

Una vez que la tasa en la magnitud mínima es conocida, entonces las tasas en

magnitudes más altas son extrapoladas desde la relación de frecuencia-magnitud GR

con el valor b histórico y magnitud máxima.

2.4.8 STEP

En 2.005, el modelo de probabilidad de terremotos a corto plazo (STEP del inglés

short-term earthquake probability) fue inaugurado en

http://pasadena.wr.usgs.gov/step (Gerstenberger et al.,2005). STEP es otro método

que emplea una ley de sismicidad universal (en este caso la ley de réplicas modificada

de Omori) (Utsu et al., 1995) con datos históricos e instrumentales con el objetivo de

crear una predicción dependiente del tiempo. Debido a que el modelo STEP está

basado en la ley de Omori es una predicción a corto plazo que produce predicciones en

una escala de tiempo de días y cuya señal principal está relacionada con secuencias de

réplica, al igual que el modelo de agrupación no de Poisson de Ebel et al. (2007).

El modelo STEP combina un modelo de ocurrencia independiente del tiempo de

datos de falla tectónica con modelos de agrupación estocásticos cuyos parámetros

están derivados de datos de catálogo recientes y a largo plazo. El modelo

independiente del tiempo se elabora de los mapas de riesgo a largo plazo de la U.S.

Geological Survey de 1.996 (USGS) (Frankel et al., 1997). Tres modelos estocásticos son

calculados para incorporarse en el modelo de fondo: un modelo de agrupamiento

genérico, un modelo específico de secuencia, y un modelo heterogéneo espacial

(Gerstenberger et al., 2005).

Para el modelo de agrupamiento genérico, la tasa en el tiempo t es dada por

(Reasenberg and Jones, 1989, 1994): ���� = 10lª�#�«@H«�/�� + ~�� (2.4.20)

donde a',b,c y p son constantes y Mm es la magnitud del sismo principal. El modelo

específico de secuencia está estimado usando un valor posterior para los parámetros

de cada evento en la secuencia, si la secuencia es lo suficientemente larga. Un tercer

modelo heterogéneo espacialmente es calculado en cada punto de la cuadrícula donde

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 50

los parámetros son calculados basados en la sismicidad local promediada en una

relativamente estrecha región (Wiemer and Katsumata, 1999; Wiemer et al., 2002).

Para los dos primeros modelos, una vez que la tasa total de réplica es calculada, es

distribuida en un área que se extiende la mitad que una longitud de falla desde el

origen, con una densidad espacial proporcional a 1/r2 donde r es la distancia desde el

origen. En el modelo heterogéneo espacial, son calculadas tasas variables espaciales

desde la distribución actual de las réplicas que han ocurrido y han sido registradas.

Cada ajuste del modelo es evaluado usando el AIC corregido (Akaike, 1974; Burnham

and Anderson, 2002; Kenneth et al., 2002). El peso relativo para cada modelo es

calculado basado en su puntuación AIC. El modelo final es una suma ponderada de los

tres modelos estocásticos (Gerstenberger et al., 2005, 2007). Finalmente, en la versión

web del modelo STEP, los cálculos de riesgo basados en temblores de tierra son

hallados desde Boore et al. (1997).

El modelo original para California fue sometido al centro de pruebas RELM en

2.005 (Gerstenberger et al., 2007), y una versión revisada subsecuente para Italia fue

presentada en el centro de pruebas CSEP (Woessner et al., 2010). La premisa básica es

la misma, con tres diferencias importantes. La primera, el modelo independiente del

tiempo es derivado de un catálogo desagrupado el cual es entonces arreglado usando

el método TripleS de Zechar and Jordan (2010) (explicado más arriba). La segunda

modificación estuvo en la relación de productividad de réplica. Aquí los valores

derivados por Lolli and Gasperini (2003) fueron sustituidos, y el modelo se llamó STEP-

LG. El tercer método, llamado STEP-NG empleó el método de Christophersen and

Smith (2008) para estimar la productividad media basada en la abundancia media, el

número medio de réplicas como un función de magnitud del sismo principal.

Destacaron que, en general, el modelo de variación espacial produce el mejor ajuste a

los datos locales, pero más lejos de la falla, donde los datos son más escasos y la

magnitud mínima de integridad es mayor, el modelo específico de secuencia ajusta los

datos mejor (Woessner et al., 2010).

Esto sirve para ilustrar el potencial inconveniente mayor para predicciones de

réplicas a corto plazo. La calidad de los datos disponibles es crítico para la producción

de mapas de riesgo precisos, como en el caso de sistemas de información en tiempo

real o cercanos a tiempo real, argumentando para la mejora continua de redes

regionales y locales en áreas de riesgo sísmico alto.

2.4.9 HAZGRIDX

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 51

HAZGRIDX, como propuso Akinci (2010), es otra versión de un modelo sísmico

arreglado donde el alisamiento es gobernado por la relación magnitud-frecuencia GR.

Comenzando con un catálogo sísmico para Italia el cual esta desagrupado, la magnitud

mínima de integridad es determinada. La sismicidad es entonces arreglada usando el

método sísmico alisado espacialmente (Frankel, 1995) y es calculada la siguiente

ecuación para la tasa arreglada de eventos en cada celda y es normalizada por la

sismicidad regional total usando la siguiente ecuación:

ñ = ∑ !¦�E­®/¯p¦:­®±²¯∑ �E­®/¯p¦:­®±²¯ (2.4.21)

donde Δij es la distancia entre el centrado de las celdas i y j de la cuadrícula y el

parámetro c la distancia de correlación. La suma es tomada sobre todas las celdas j

dentro de una distancia de 3c de la celda i.

Una predicción CSEP a cinco años para Italia fue creada por el arreglado sobre una

distancia de correlación, c, de 15 km y calculando tasas de actividad para cada casilla

que cumplía la relación de magnitud-frecuencia GR regional. Un modelo de Poisson

independiente del tiempo es empleado para calcular la tasa recurrente para cada

evento.

Akinci (2010) destacó que, no sólo un catálogo integro tiene un efecto crucial en

la fiabilidad y la calidad de predicciones basadas en sismicidad potencial, sino que

también es crítico esa estimación exacta del valor b GR. En modelos tales como este,

un valor b bajo incrementará el valor de riesgo, mientras que una alta lo reduce.

Es necesario la adquisición de datos sísmicos de alta calidad sobre periodos de

tiempo largos con el objetivo de estimar con integridad valores b regionales y

proporcionar predicciones sísmicas arregladas más exactas.

2.4.10 Modelo de riesgo proporcional (PHM)

El Modelo de riesgo proporcional (PHM del inglés proportional hazard model) es

un método estadístico no paramétrico multivariante que caracteriza la dependencia

temporal de una función de riesgo que representa la probabilidad condicional

instantánea de una ocurrencia (Cox, 1972; Faenza et al., 2003, 2004; Kalbeisch and

Prentice, 1980). El modelo no asume a priori ninguna distribución estadística de los

eventos y puede ser usado para integrar simultáneamente diferentes tipos de

información. En este caso, permite análisis del proceso de ocurrencia de terremoto sin

el requisito de asumir un modelo tal como la distribución de terremotos característico.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 52

Además, permite probar el impacto en la distribución de eventos de la integración de

trozos individuales de información física y a medida que se integran en el modelo

probar su importancia relativa (Faenza and Marzocchi, 2010).

El PHM fue aplicado en estudios de la distribución espacio temporal de terremotos

destructivos en Italia (Cinti et al., 2004; Faenza and Pierdominici;, 2007; Faenza et al.,

2003), terremotos de tamaño medio en Europa central (Faenza et al., 2009), y grandes

terremotos por todo el mundo (Faenza et al., 2008) la cual mostraba que

agrupamientos temporales de eventos del orden de unos pocos años ocurren como

una señal precursora previa a grandes eventos. Su escala espacial oscila entre decenas

a cientos de kilómetros.

Dos tipos de variables aleatorias (RV del inglés random variables) son consideras

en esta versión del PHM, el tiempo entre eventos (IET del inglés inter-event time), el

intervalo de tiempo entre dos eventos consecutivos, y el tiempo de censura (CT del

inglés censoring time), el tiempo entre el evento más reciente en el catálogo y el fin del

catálogo en sí (Faenza and Marzocchi, 2010). Estos son combinados con otras

informaciones, o covariables, las cuales están relacionadas con los RVs a través de una

función de riesgo λ(t;z): ���; =� = � ���exp�Ζ�� (2.4.21)

donde λ0(t) es una función de riesgo de referencia no especificada, z es el vector

covariable y β es un vector columna que proporciona el peso de cada covariable.

La firma temporal es contenida en λ0(t) mientras exp(z,β) lleva información sobre

los otros procesos (Faenza and Marzocchi, 2010).

Destacar que λ0(t) es independiente de z en la ecuación de arriba, implicando una

simple relación escalar entre ellos. También, como muchos de los modelos de

sismicidad arreglados, se asume que la sismicidad pasada es una buena representación

de la sismicidad futura. Los coeficiente en λ0(t) y β son estimados a través de una

estrategia de estimación de probabilidad máxima (Faenza, 2005).

La evaluación de la función de riesgo está basada en la función de supervivencia

empírica. Para la función de riesgo de terremotos anterior, esta es su fórmula:

F��; =� = exp (−J � ���exp�Ζ��N�G , = F ���¢�£�µ¶� (2.4.21)

Comparando la función de supervivencia de arriba con la función de supervivencia

de un proceso de Poisson, es posible determinar con precisión resultados de un

proceso de Poisson, o agrupamiento en datos (Faenza and Marzocchi, 2010; Faenza et

al., 2003; Kalbeisch and Prentice, 1980).

Una vez un conjunto de ubicaciones es elegido, ya sea en una cuadrícula o para un

conjunto de subregiones tectónicas, el IETs y una CT son calculadas para cada

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 53

localización, en relación con el tiempo transcurrido desde el evento más reciente. El

vector z para una cuadrícula es entonces un vector bidimensional que comprende el

logaritmo de la tasa de ocurrencia y la magnitud de cada evento. Puede ser también

cada vez discretizado basado en subregiones (Cinti et al., 2004; Faenza and Marzocchi,

2010; Faenza et al., 2003). Estudios en Italia usando estas dos discretizaciones

determinaron que sólo la tasa de ocurrencia es significativamente diferente de cero,

sugiriendo que, para aquellos parámetros probados, la tasa de ocurrencia aparece

para ser la única covariable importante en el modelado de la distribución espacio-

temporal de terremotos moderados a grandes (Faenza and Marzocchi, 2010).

La probabilidad de un evento en cualquier localización z, para derivar un mapa de

predicción sobre un periodo de tiempo dado es entonces

·��; Δ%; z� = P�G;º�HP�G�§»;¼�P�G;º� (2.4.22)

donde Δτ es el tiempo predicho, t es el tiempo desde el último evento (CT), y S(t;z)

es la función de supervivencia (Faenza and Marzocchi, 2010).

Una predicción en marcha para terremotos M≥5.5 en Italia puede encontrarse en

http://earthquake.bo.ingv.it. En curso desde 2.005, la predicción es actualizada cada 1

de enero y después de cada ocurrencia del evento objetivo. Aunque no probabas

específicamente ni contra una hipótesis nula aleatoria ni agrupada, la predicción se

lleva a cabo bien para el terremoto de L'Aquila de M6.2 de 2.009 (Pondrelli et al.,

2010), y para los eventos M5.6 subsecuentes.

Modelos de predicción CSEP de cinco a diez años fueron creados para Italia

usando PHM, y pueden verse en (Faenza andMarzocchi, 2010). Observar la región de

mayor riesgo asociado con la localización del terremoto de L'Aquila de 2009. Esto

ilustra una de las preguntas abiertas asociadas con predicciones basadas en sismicidad

en general y con métodos de sismicidad arreglados en particular. Grandes eventos que

ocurren en el periodo de prueba de predicción normalmente dan como resultado una

señal significativa y persistente en la predicción resultante. Estas pueden ser señales

válidas, una representación de riesgos más altos asociados con réplicas potenciales,

pero podría también ser subestimado o afectar a la estimación relativa de otros riesgos

sísmicos regionales.

2.5 Conclusiones

Los recientes desarrollos en los campos de sismología estadística, en conjunción

con la disponibilidad de gran cantidad de datos sísmicos en pequeñas escalas y avances

computacionales, han mejorado significativamente nuestro entendimiento de los

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 54

procesos de terremotos dependientes del tiempo. Como resultado, los últimos diez

años han visto progresos significativos en el campo de la predicción de terremotos

basados en sismicidad a corto y medio plazo. Estas técnicas de predicción basadas en

sismicidad pueden ser diferenciadas de modelos basados en técnicas para identificar

procesos físicos particulares y de aquellos que filtran o arreglan la sismicidad.

Tales filtros están normalmente, aunque no siempre, basados en relaciones

sísmicas bien caracterizadas tales como la ley de Omori modificada. Exploraciones de

la principal diferencia entre estas dos clases de modelos reflejan su mayor fuerza y

debilidad. Mientras los modelos físicos generalmente tienen el potencial de

proporcionar más detalles en espacio y tiempo, la base para sus éxitos y fallos es

normalmente oscurecido por las simple estimaciones del modelo y las complicadas

interacciones que existen en el mundo real.

Por otra parte, mientras que los patrones de predicción y los éxitos o fracasos que

resultan son mejor entendidos en los modelos suavizados, la variación en el patrón

espacial resultante por los diferentes filtros es relativamente pequeña.

El progreso en la precisión y evaluación en las predicciones de terremotos basados

en sismicidad sobre los últimos 10 años ha llegado hasta el consenso general de que

proporcionan los caminos más prometedores para predicciones de terremotos

operacionales viables (ver por ejemplo Jordan and Jones, 2010). Técnicas de

evaluación actuales incluyen tests específicamente formulados para técnicas de

predicción binaria, así como aquellas que automáticamente generan ámbitos

probabilísticos, tales como modelos de sismicidad arreglados (www.cseptesting.org).

Además, muchos progresos han sido hechos en la modificación de un gran número de

métodos, tales como M8, para producir ámbitos de probabilidad. Sin embargo, otro

gran número de técnicas no son evaluadas regularmente, creando una importante y

potencial diferencia en nuestra habilidad de cuantificar la ganancia de probabilidad

asociada con esos métodos, pero también evitando ideas potenciales en el mecanismo

y comportamientos que afectan a la predicción de terremotos.

Aún quedan por hacer trabajos importantes, no solo en la evaluación de varios

métodos ya formulados para pruebas, sino también en determinar cuáles son los

periodos de tiempo de predicción óptimos y las precisiones para varios propósitos de

predicción, y que nivel de ganancia de probabilidad es razonable y probable para las

regiones espaciales y temporales de interés. Está claro que una diferencia existe entre

predicciones que rinde bien en el orden de días a semanas (modelos de predicción de

réplicas) y aquellos que rinden bien sobre periodos de tiempo de cinco a diez años. La

pregunta sigue siendo si predicciones fiables son posibles para periodos de tiempo de

uno a dos años. Además ha habido relativamente pequeña colaboración alrededor de

varios métodos que intenta tomar ventaja de la información científica y practica

ganada desde su evaluación en curso. Acuerdos sobre la hipótesis nula agrupada más

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 55

aplicable podrían avanzar en este objetivo, cambiando el fin de comparaciones entre

modelos a evaluaciones contra un estándar.

Ambos tipos de predicciones basadas en sismicidad están limitadas por la calidad

de los datos y el relativamente corto periodo de tiempo disponible para el catálogo

instrumental, subrayando la importancia de catálogos instrumentales de buena calidad

derivados de redes sísmicas densas. Errores de falta de información en los catálogos

dan como resultado grandes errores en la predicción resultante, particularmente para

grandes eventos, que tienen escasas estadísticas. Además, a diferencia de algunos

modelos físicos, los modelos sísmicos arreglados no pueden contar para regiones que

han estado inactivas en la historia reciente pero que podrían contener significativos

terremotos potenciales en escalas de tiempo más prolongadas. Quizás tan importante

como el pequeño número de grandes eventos que ocurrirán o bien en una región o

por todo el mundo en un periodo de tiempo próximo de treinta a cincuenta años,

mucho menos en cinco o diez años, es hacer evaluaciones estadísticas definitivas de

todas estas técnicas extremadamente difícil actualmente. Como resultado, estándares

para rechazar hipótesis están todavía bajo discusión. Esto sirve para enfatizar la

importancia de entender las varias escalas de tiempo asociadas con el proceso natural

de terremotos y el hecho de que periodos de observación más prolongados serán

necesarios para evaluar apropiadamente la viabilidad y eficacia de ambos tipos de

modelos de predicción.

Un gran número de visiones importantes e interesantes se pueden extraer de una

exploración más minuciosa de las varias técnicas y su implementación.

Primero, muchas técnicas se centran principalmente en fenómenos particulares

como precursores específicos, y sin embargo, a menudo llegan a similares conclusiones

con respecto a la localización y el tiempo que las de eventos particulares. Por ejemplo,

un gran número de estudios identifican escalas de tiempo a corto plazo para

activaciones e inactividades precursoras alternativas del orden de varios años (ver por

ejemplo, Evison and Rhoades, 2002; Huang, 2004; Kossobokov, 2006a, 2006b; Tiampo

et al., 2006a,b) . Es más probable que en el futuro, observaciones más minuciosas y

comparaciones de varias técnicas proporcionen información importante de los

procesos subyacentes que identifican la física asociada.

En segundo lugar, la mayoría de las metodologías actuales se formulan de modo

pueden ser actualizadas para tener en cuenta la naturaleza cambiante del sistema de

fallas de terremotos. El desarrollo de técnicas de predicción de terremotos

dependientes del tiempo es una respuesta al reconocimiento de que el ámbito de

tensión de evolución en un sistema de falla regional es la fuerza motriz detrás de un

sistema dinámico, si es lento. Como tal, la sismicidad de magnitud pequeña y mediana

está proporcionando información importante en la evolución temporal y espacial en el

ámbito de tensión local y regional. Las técnicas de predicción basadas en sismicidad,

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 56

incluso aquellas que son independientes del tiempo (por ejemplo, Kagan et al., 2007)

permiten actualizaciones regulares tanto para sus predicciones como para

predicciones revisadas después de la ocurrencia de grandes eventos, teóricamente la

captura de la dinámica del sistema. Trabajos futuros probablemente incluirán análisis

detallado de esta evolución temporal y visiones importantes en la física de sistemas así

como mayores avances en predicciones de terremotos a corto y medio plazo.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 57

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 58

Capítulo 3 . Descubrimiento de conocimiento a partir de grandes bases de datos (KDD).

3.1 Introducción

La revolución de la información global en la sociedad en la que vivimos ha

producido que se generen gran cantidad de datos a gran velocidad, creándose una

necesidad de aumento de las capacidades de almacenamiento que no pueden

resolverse por métodos manuales. En las últimas décadas la principal preocupación se

ha centrado en cómo tratar la información disponible de la forma más rápida y

eficiente Se hace entonces necesario encontrar técnicas y herramientas que ayuden

en el análisis de dichas cantidades de datos, que se encuentran normalmente

infrautilizadas, ya que dicho volumen excede nuestra habilidad para reducir y analizar

los datos sin el uso de técnicas de análisis automatizadas.

La minería de datos (o data mining en su terminología inglesa) es una de las

técnicas que más se usan actualmente y que surgió como solución a este problema. Su

misión no es otra que la de analizar la información de las bases de datos. Apoyándose

en distintas disciplinas como la estadística, los sistemas para tomas de decisión o el

aprendizaje automático entre otros, permite extraer patrones, describir tendencias o

predecir comportamientos.

La minería de datos en resumen, no es más que una de las etapas más

importantes del descubrimiento de la información en bases de datos (KDD o

Knowdledge discovery in databases), entendiendo por descubrimiento la existencia de

información valiosa escondida y no conocida anteriormente. Definido en varias fases,

este proceso se puede entender entonces como el proceso completo de extracción de

información, que se encarga así mismo de la preparación de los datos y de la

interpretación de los resultados obtenidos.

En otras palabras, KDD se ha definido como “el proceso no trivial de identificación

en los datos de patrones válidos, nuevos, potencialmente útiles, finalmente

comprensibles” (Fayyad, U. et al., 1996)

El proceso de KDD incorpora distintas técnicas del aprendizaje automático, las

bases de datos, la estadística, la inteligencia artificial así como diversas áreas de la

informática y de la información en general.

Una de las causas que ha hecho que la minería de datos alcance gran popularidad

ha sido la difusión de herramientas y paquetes que implementan estas técnicas, tales

como MicroStrategy, Intelligent Miner de IBM o DM Suite (Darwin) de Oracle, siendo

conocidas como herramientas de Business Intelligence (BI).

Estos paquetes integrados o suites de BI los podemos definir como una colección

de herramientas y técnicas para la gestión de datos, análisis y sistemas de soporte a la

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 59

decisión o, de forma más amplia, como la combinación de arquitecturas, bases de

datos, herramientas de análisis, aplicaciones y metodologías para la recopilación,

almacenamiento, análisis, y acceso a los datos para mejorar el rendimiento del negocio

y ayudar a la toma de decisiones estratégicas.

La diversidad de disciplinas que contribuyen a la minería de datos da lugar a una

gran variedad de sistemas específicos para analizar los tipos de datos que se desean.

Teniendo en cuenta el modelo de datos que generan, los que minan, y la técnica o el

tipo de aplicación, se puede distinguir, citando a Hernández Orallo, (Hernández Orallo.

J. (2004))los siguientes tipos:

1. Tipo de base de dato minada. Partiendo de diferentes modelos de datos,

existen sistemas de minerías de datos relacionados y multidimensionales,

entre otros. De igual forma, teniendo en cuenta los tipos de datos usados

se producen sistemas textuales, multimedia, espaciales o web.

2. Tipo de conocimiento minado. Teniendo en cuenta los niveles de

abstracción del conocimiento minado se distinguen:

• Conocimiento generalizado con alto nivel de abstracción.

• Conocimiento a nivel primitivo, con filas de datos.

• Conocimiento a múltiples niveles, de abstracción.

Además, se debe hacer la distinción entre los sistemas que buscan patrones, es

decir, regularidades, y los que buscan excepciones, irregularidades.

1. Tipo de funcionalidad (clasificación, agrupamiento) y de técnica, es decir,

métodos de análisis de los datos empleados.

2. Tipo de aplicación. En el que distinguimos dos tipos: los de propósito

general y los específicos. Sin pretender ser exhaustivos, se exponen

seguidamente algunos ejemplos de aplicaciones.

• Medicina, básicamente para encontrar la probabilidad de una

respuesta satisfactoria a un tratamiento médico o la detección de

pacientes con riesgo de sufrir alguna patología (detección de

carcinomas, pólipos...).

• Mercadotecnia. Análisis de mercado, identificación de clientes

asociados a determinados productos, evaluaciones de campañas

publicitarias, estimaciones de costes o selección de empleados.

• Manufacturas e industria: detección de fallas.

• Telecomunicaciones. Determinación de niveles de audiencia, detección

de fraudes, etc.

• Finanzas. Análisis de riesgos bancarios, determinación de gasto por

parte de los clientes, inversiones en bolsa y banca etc.

• Climatología. Predicción de tormentas o de incendios forestales.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 60

• Comunicación. Análisis de niveles de audiencia y programación en los

mass media

• Hacienda. Detección de fraude fiscal

• Política. Diseño de campañas electorales, de la propaganda política,de

intención de voto, etc.

Como se viene comentando desde el principio del capítulo, los datos tal y como se

almacenan no suelen proporcionar beneficios directos. Su valor real reside en la

información que se pueda extraer de ellos, información que ayude a tomar decisiones

o a mejorar la comprensión de algún fenómeno que nos rodea.

En el caso que nos ocupa, la minería de datos es solo una fase de este proceso

más amplio cuya finalidad no es otra que el descubrimiento de conocimiento en bases

de datos (KDD). Con independencia de la técnica que se siga durante el proceso de

extracción de datos, los pasos a seguir son siempre los mismos:

1. Adquisición de datos

2. Preprocesamiento y transformación

3. Minería de datos

4. Evaluación

5. Interpretación

A continuación se detallan cada uno de estos pasos.

3.2 Adquisición de datos

En el proceso de minería de datos es muy importante comprender el dominio del

problema, por lo que resulta un paso clave definir claramente lo que se intenta

abordar. Se podría definir como la fase 0.

En un segundo momento se debe seleccionar el conjunto de datos sobre el que se

desea extraer información. Es decir, se localizan las fuentes de información y los datos

obtenidos se llevan a un formato común para poder trabajar de manera más adecuada

con ellos. Frecuentemente los datos necesarios para realizar un proceso de KDD

pertenecen a distintos departamentos u organizaciones, o incluso es posible que haya

que buscar datos complementarios de informaciones oficiales. Por tanto, es

recomendable y conveniente utilizar algún método automatizado para explorar dichos

datos.

Se podría resumir entonces esta fase como una etapa de comprensión de los

datos con una colección de datos inicial y realización de actividades para familiarizarse

con ellos. De esta forma se podrá identificar más fácilmente problemas de calidad para

descubrir las características de los datos. Así mismo, se podrá detectar subconjuntos

para realizar las primeras hipótesis sobre la información oculta.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 61

Entre las tareas que se realizan podemos distinguir:

• Selección: de tablas, de atributos, registros y/o fuentes con las que

comenzar a trabajar.

• Estudiar los datos: el mundo que nos rodea consiste de objetos que

percibimos y lo que interesa es descubrir las relaciones entre los objetos.

Los objetos en sí tienen unas características que son las que se van a

analizar.

• Establecer los metadatos que serán más tarde utilizados.

• Establecer el tipo de variables: Generalmente se ha hecho la distinción en

cuantitativas o cualitativas. Las cuantitativas a su vez, se distinguen en

discretas (por ejemplo, el número de empleados de una empresa) o

continuas (como el sueldo, días de vacaciones…). Mientras que las

cualitativas se distinguen entre nominales (nombran el objeto al que se

refieren, como el estado civil, género…) u ordinales (se puede establecer

un orden en sus valores, como alto, medio o bajo)

• Establecer la caducidad de cada dato, es decir, la vida de las variables, ya

que las medidas tienen un periodo de caducidad y se toman en unas

circunstancias.

3.3 Preprocesamiento y transformación

En este apartado se detalla la fase de preparación de los datos así como su

trasformación.

En esta etapa del KDD se engloban todas las actividades de construcción del

conjunto final de datos, los cuales servirán como datos de entrada en los futuros

algoritmos de minería de datos, desde el conjunto inicial de los datos.

Existe la posibilidad de que estas actividades se deban realizar múltiples veces y

sin un orden determinado.

Las tareas más importantes a realizar durante esta etapa son:

• Transformación de datos

• Limpieza de datos

El primer paso que hay que seguir dentro de esta fase es asegurar la calidad de los

datos, ya que estos pueden contener valores atípicos (outliers) o valores nulos. La

recolección y registro de los datos existentes no se hizo siguiendo un formato

concreto, y menos aún fueron recogidos para tareas de minería de datos. Es por ello

que suelen caracterizarse por ser datos pobres y/o inconsistentes, que en muchas

ocasiones, y como se ha comentado anteriormente, provienen de numerosas fuentes y

diversos sistemas, cada uno de ellos con su propio tipo de datos y su propia forma de

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 62

tratarlos. Lo cual, en posteriores análisis de minería de datos, podría llevar a

formulación de modelos erróneos y/o muy sesgados.

Se antoja entonces fundamental, realizar dos funciones básicas:

1. Revisión de los datos: debido a la gran cantidad de datos que pueden

formar el dominio del problema, se suelen utilizar métodos estadísticos y

de visualización que permitirán más fácilmente identificar aquellos valores

no deseados. Si se trata de variables categóricas, las técnicas más utilizadas

para localizar dichos valores son la distribución de variables, histogramas o

gráficas circulares.

Mientras, para variables cualitativas, se aconseja el uso de media, varianza,

moda, diagrama de dispersión o diagrama de cajas

2. Tratamientos de valores nulos e información incompleta: los datos más

importantes a tratar son los valores atípicos (outliers) y los valores nulos. El

tratamiento de los primeros dependerá de su naturaleza y se podrán

eliminar, si se considera necesario, del proceso de carga en el data

warehouse. Para el tratamiento de los valores nulos, no existe una técnica

perfecta, aunque las directrices mínimas que deben seguirse son eliminar

las observaciones con nulos, así como eliminar las variables con muchos

nulos y utilizar un modelo predictivo para ello.

Una vez realizada esto, se conseguirá una visión integrada, consistente y

consolidada de los datos.

Toda vez que los datos han sido tratados, hay que refinarlos para que cumplan los

requisitos de entrada de los futuros algoritmos, para ello se deberá llevar a cabo tareas

de conversión de variables, reducción o adición de las mismas y una discretización o

generalización, dependiendo del conjunto de datos tratado.

3.4 Minería de datos

En este apartado se detallara más en profundidad acerca de la minería de datos y

en la técnica usada para este trabajo, clustering.

Al ser la minería de datos una técnica novedosa y cuyo concepto no resulta fácil de

declarar, no existe una única definición sobre esta. Como muestra, se exponen a

continuación algunas de las más conocidas:

• Definición 1. Es el proceso no trivial de descubrir patrones válidos, nuevos,

potencialmente útiles y comprensibles dentro de un conjunto de datos,

Piatetski-Shapiro G., Frawley W. J., and Matheus C. J. (1991).

• Definición 2. Es la aplicación de algoritmos específicos para extraer

patrones de datos,Fayyad U. M., Piatetski-Shapiro G., and Smith P. (1996),

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 63

entendiendo por datos un conjunto de hechos y por patrones una

expresión en algún lenguaje que describe un subconjunto de datos,

siempre que sea más sencilla que la simple enumeración de todos los

hechos que componen.

• Definición 3. Es la integración de un conjunto de áreas que tienen como

propósito la identificación de un conocimiento obtenido a partir de las

bases de datos que aporten un sesgo hacia la toma de decisión, Grossman

R. L., Hornik M. F., and Meyer G. (2004).

• Definición 4. Es el proceso de descubrimiento de conocimiento sobre

repositorios de datos complejos mediante la extracción oculta y

potencialmente útil en forma de patrones globales y relaciones

estructurales implícitas entre datos,Kopanakis I. and Theodoulidis B.

(2003).

• Definición 5. El proceso de extraer conocimiento útil y comprensible,

previamente desconocido, desde grandes cantidades de datos

almacenados en distintos formatos,Witten H. and Frank E. (2005).

• Definición 6. La tarea fundamental de la minería de datos es encontrar

modelos inteligibles a partir de los datos,Hernández Orallo J., (2004).

En síntesis, Los objetivos que persigue la minería de datos se pueden resumir de

esta manera:

1. Identificación de patrones significativos o relevantes

2. Procesamiento automático de grandes cantidades de datos

3. Presentación de los patrones como conocimiento adecuado para satisfacer

los objetivos del usuario

Cabe mencionar en este apartado que algunos autores distinguen dos tipos de

minería de datos,Fayyad U. M., Piatetski-Shapiro G., and Smith P. (1996).

1. Mdp o minería de datos predictiva. En otras palabras, predicción de datos,

básicamente técnicas estadísticas. La clasificación y la regresión son las

tares de datos que producen modelos predictivos.

• Clasificación. Es la más usada. Cada registro de la base de datos

pertenece a una determinada clase o etiqueta discreta, que se indica

mediante el valor de un atributo o clase de la instancia. El objetivo no

es otro que predecir una clase, dados los valores de los atributos.

Árboles de decisión, sistemas de reglas o análisis de discriminantes son

algunos ejemplos. También podemos encontrar variantes de la tarea de

clasificación como rankings, aprendizaje de preferencias, etc…

• Regresión o estimación. Es el aprendizaje de una función real que

asigna a cada instancia un valor real de tipo numérico. El objetivo es

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 64

inducir un modelo para poder predecir el valor de la clase dados los

valores de los atributos. Se usan, por ejemplo, árboles de regresión,

redes neuronales artificiales, regresión lineal, etc.

2. Mddc o minería de datos para el descubrimiento del conocimiento, usando

básicamente técnicas de ingeniería artificial. Las tareas que producen

modelos descriptivos son el agrupamiento (clustering), las reglas de

asociación secuenciales y el análisis correlacional, como se verá más

delante.

• Clustering o agrupamiento. Técnica descrita en este trabajo. Consiste

en la obtención de grupos, que tienen los elementos similares, a partir

de los datos. Estos elementos u objetos similares de un grupo son muy

diferentes a los objetos de otro grupo. Esta técnica de estudio por

agrupamiento fue ya utilizada a principios del siglo XX en otras áreas

lingüísticas, como la Semántica. Formando campos semánticos se

estudia el léxico de un idioma con sus particularidades.

• Reglas de asociación. Su objetivo es identificar relaciones no explícitas

entre atributos categóricos. Una de las variantes de reglas de

asociación es la secuencial, que usa secuencias de datos.

• Análisis correlacional. Utilizada para comprobar el grado de similitud de

los valores de dos variables numéricas.

El proceso de minería de datos cuenta con una serie de ventajas que se pueden

sintetizar en las siguientes:

• Proporciona poder de decisión a los usuarios y es capaz de medir las

acciones y resultados de la mejor manera.

• Contribuye a la toma de decisiones tácticas y estratégicas.

• Supone un ahorro económico a las empresas y abre nuevas posibilidades

de negocio.

• Es capaz de generar modelos prescriptivos y descriptivos.

Nos centraremos ahora en la técnica usada para este trabajo, clustering, como se

ha mencionado en apartados anteriores.

Clustering no es más que agrupar un conjunto de objetos abstractos o físicos en

clases similares. Por lo tanto un clúster se puede definir como una colección de datos

parecidos entre ellos y diferentes de los datos que pertenecen a otro clúster. Así

mismo, un clúster de datos puede ser tratado colectivamente como un único grupo.

Sabiendo esto, las técnicas de clustering se pueden definir como técnicas de

clasificación no supervisada de patrones en conjuntos denominados clúster.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 65

Aunque el problema de clustering ha sido planteado por una gran cantidad de

disciplinas y es aplicable a también gran número de contextos, sigue siendo un

problema complejo y su desarrollo es más lento que el esperado.

Se pasará ahora a ofrecer una visión global de los distintos métodos de clustering

así como las distintas aplicaciones de conceptos relacionados con este entorno.

El análisis de clúster es una importante actividad humana. Ya desde temprana

edad, el ser humano aprende a distinguir entre hombre y mujer, o entre oriental u

occidental, mediante una mejora continua de los esquemas de clasificación.

Las técnicas de clustering han sido ampliamente utilizadas en múltiples

aplicaciones tales como reconocimiento de patrones, análisis de datos, procesado de

imágenes o estudios de mercado. Gracias al clustering se pueden identificar regiones

tanto pobladas como dispersas y, por consiguiente, descubrir patrones de distribución

general y correlaciones interesantes entre los atributos de los datos. En el área de los

negocios, el clustering puede ayudar a descubrir distintos grupos en los hábitos de sus

clientes y así, caracterizarlo en grupos basados en patrones de compra. En el ámbito

de la biología puede utilizarse, por ejemplo, para derivar taxonomías animales y

vegetales o descubrir genes con funcionalidades similares.

De igual manera, el clustering puede ayudar a identificar áreas en las que la

composición de la tierra se parece y, más concretamente, en teledetección se pueden

detectar zonas quemadas, superpobladas o desérticas. En internet se puede utilizar

para clasificar documentos y descubrir información relevante de ellos.

El análisis de clústeres se puede usar para hacerse una idea de la distribución de

los datos, para observar las características de cada clúster y para centrarse en un

conjunto particular de datos para futuros análisis.

El clustering de datos es una disciplina científica que cuenta con multitud de

estudios y artículos en diferentes ámbitos. Debido a la enorme cantidad de datos

contenidos en las bases de datos, el clustering se ha convertido en un tema muy activo

en las investigaciones de la minería de datos. Como rama de la estadística, el análisis

de clústeres ha sido objeto de estudio durante muchos años, centrándose

principalmente en los las técnicas basadas en la medida de distancias.

En lo referente al aprendizaje automático, el clustering suele venir referido como

aprendizaje no supervisado.

A diferencia de la clasificación, el clustering no depende de clases previamente

definidas ni en ejemplos de entrenamientos etiquetados a priori. Por esta razón, se

trata de una forma de aprendizaje por observación en vez de aprendizaje por

ejemplos. En el clustering conceptual un grupo de objetos forma una clase sólo si

puede ser descrito mediante un concepto.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 66

El clustering conceptual consiste en dos componentes:

1. Descubre las clases apropiadas.

2. Forma descripciones para cada clase, tal y como sucede en la clasificación.

El clustering es, hoy en día, un campo de investigación en el que sus aplicaciones

potenciales plantean sus propios requerimientos específicos. Dichos requerimientos se

pueden resumir en:

1. Escalabilidad. Aplicar clustering sobre una muestra de una gran base de

datos dada puede arrojar resultados parciales. El reto está en desarrollar

algoritmos de clustering que sean altamente escalables en grandes bases

de datos.

2. Capacidad para tratar con diferentes tipos de atributos. Muchos algoritmos

se diseñan para clústeres de datos numéricos. Sin embargo, multitud de

aplicaciones pueden requerir clústeres de otro.

3. Descubrir clústeres de forma arbitraria. Muchos algoritmos de clustering

determinan clústeres basándose en medidas de distancia de Manhattan o

euclídeas. Tales algoritmos tienden a encontrar clústeres esféricos con

tamaños y densidades similares. Sin embargo, un clúster puede tener

cualquier tipo de forma. Es por ello que es importante desarrollar

algoritmos capaces de detectar clústeres de forma arbitraria.

4. Requisitos mínimos para determinar los parámetros de entrada. Muchos

algoritmos requieren que los usuarios introduzcan ciertos parámetros en el

análisis de clústeres (como puede ser el número de clústeres deseado).El

clustering es muy sensible a dichos parámetros. Este hecho no sólo

preocupa a los usuarios sino que también hace que la calidad del clustering

sea difícil de controlar.

5. Capacidad para enfrentarse a datos ruidosos. La mayor parte de las bases

de datos reales contienen datos de tipo outliers o datos ausentes,

desconocidos o erróneos. Algunos algoritmos de clustering son sensibles a

este tipo de datos lo que puede acarrear una baja calidad en los clústeres

obtenidos.

6. Insensibilidad al orden de los registros de entrada. Determinados

algoritmos son sensibles al orden de los datos de entrada, pudiendo el

mismo conjunto de datos presentados en diferente orden generar

clústeres extremadamente diferentes. Se hace necesario desarrollar

algoritmos que sean insensibles al orden de la entrada.

7. Alta dimensionalidad. Una base de datos puede contener varias

dimensiones o atributos. Muchos algoritmos de clustering son buenos

cuando manejan datos de baja dimensión (dos o tres dimensiones). El ojo

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 67

humano es adecuado para medir la calidad del clustering hasta tres

dimensiones.

Es un reto agrupar objetos en un espacio de alta dimensión, especialmente

considerando que en dicho espacio los datos pueden estar altamente

esparcidos y distorsionados.

8. Clustering basado en restricciones. Las aplicaciones del mundo real pueden

necesitar realizar clustering bajo ciertos tipos de restricciones.

9. Interpretabilidad y usabilidad. Los usuarios esperan que los resultados

proporcionados por el clustering sean interpretables, comprensibles y

útiles. Esto es, el clustering puede necesitar ser relacionado con

interpretaciones semánticas específicas. Así, es importante estudiar cómo

el objetivo buscado por una aplicación puede influir en la selección de los

métodos de clustering.

Dados los requerimientos anteriormente mencionados, el estudio del análisis de

clústeres se hará como sigue.

• En primer lugar se estudian los diferentes tipos de datos y cómo pueden

influir los métodos de clustering.

• En segunda instancia se presentan una categorización general de los

anteriormente citados métodos.

• Posteriormente se estudiará cada método en detalle, incluyendo los

métodos de particionado, jerárquico, basados en densidad, basados en

rejilla, y basados en modelos.

Los pasos de una tarea de clustering típica se pueden resumir en los cinco

siguientes, A. K. Jain and R. C. Dubes (1988), divididos por los que realizan el

agrupamiento de los datos en clústeres frente a los que se refieren a la utilización de la

salida.

Agrupamiento de los datos:

1. Representación del patrón (opcionalmente incluyendo características de la

extracción y/o selección).

2. Definición de una medida de la proximidad de patrones apropiada para el

dominio de los datos.

3. Clustering propiamente dicho (agrupamiento de los patrones).

Utilización de la salida:

4. Abstracción de los datos (si es necesario).

5. Evaluación de la salida (si es necesario).

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 68

La representación del patrón se refiere al número de clases, el número de

patrones disponible, y el número, tipo, y escala de las características disponibles para

el algoritmo de clustering. La selección de características es el proceso de identificar el

subconjunto más apropiado de características dentro del conjunto original para

utilizarlo en el proceso de agrupamiento. La extracción de características es el uso de

una o más transformaciones de las características de la entrada para producir nuevas

características de salida. La proximidad de patrones se mide generalmente según una

función de distancia definida para pares de patrones. Existen gran variedad de

funciones de distancias que han sido utilizadas por diversos autores y que serán

descritas más adelante.

El paso de agrupamiento o clustering propiamente dicho puede ser realizado de

diversas formas. El clustering de salida puede ser hard (duro) o fuzzy (difuso).

El primero realiza una partición de los datos en grupos y en el segundo cada

patrón tiene un grado variable de calidad en cada uno de los clústeres de salida. Los

algoritmos de clustering jerárquicos son una serie jerarquizada de particiones basadas

en un criterio de combinación o división de clústeres según su semejanza. Los

algoritmos de clustering particionales identifican la partición que optimiza un criterio

de agrupamiento. Todas las técnicas se detallarán más adelante.

Es difícil evaluar si la salida de un algoritmo de clustering ha obtenido clústeres

válidos o útiles para el contexto concreto en el que se aplica. Hay que tener en cuenta

la cantidad y calidad de recursos de que se dispone, así como las restricciones tiempo y

espacio establecidos. Debido a estas razones es posible que haya que realizar un

análisis previo de la información que se desea procesar.

El análisis de validez de clústeres consiste en la evaluación de la salida obtenida

por el algoritmo de clustering. Este análisis utiliza a menudo un criterio específico; sin

embargo, estos criterios llegan a ser generalmente subjetivos. Así, existen pocos

estándares en clustering excepto en subdominios bien predefinidos.

Los análisis de validez deben ser objetivos,Dubes R. C. (1993), y se realizan para

determinar si la salida es significativa. Cuando se utiliza aproximaciones de tipo

estadístico en clustering, la validación se logra aplicando cuidadosamente métodos

estadísticos e hipótesis de prueba. Hay tres tipos de estudios de la validación:

1. La evaluación externa de la validez compara la estructura obtenida con una

estructura a priori.

2. La evaluación interna intenta determinar si una estructura es

intrínsecamente apropiada para los datos.

3. La evaluación relativa compara dos estructuras y mide la calidad relativa de

ambas.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 69

Así, la medida de la distancia es un aspecto clave en multitud de técnicas de

minería de datos. Puesto que la semejanza entre patrones es fundamental a la hora de

definir un clúster, es necesario establecer una forma de medir esta semejanza. La gran

variedad de tipos de atributos hace que la medida (o medidas) de semejanza debe ser

elegida cuidadosamente. Lo más común es calcular el concepto contrario, es decir, la

diferencia o disimilitud entre dos patrones usando la medida de la distancia en un

espacio de características. Existen unos cuantos métodos para definir la distancia entre

objetos. La medida de distancia más popular es la distancia euclídea que se define

como: N�½, ¾� = �|��� − �©�|< + |��< − �©<|< +⋯+ |��� − �©�|< (3.4.1)

donde i = (xi1, xi2, · · · , xip) y j = (xj1, xj2, · · · , xjp) son dos objetos de p dimensiones.

La distancia euclídea nos da una medida intuitiva de la distancia entre dos puntos

en un espacio de dos o tres dimensiones. Esto puede ser útil cuando los clústeres son

compactos,Mao J. and Jain A. (1996).

Otra métrica utilizada es la distancia Manhattan, definida por: N�½, ¾� = |��� − �©�| + |��< − �©<| + ⋯+ |��� − �©�| (3.4.2)

Tanto la distancia euclídea como la distancia Manhattan satisfacen los siguientes

requisitos matemáticos para una función de distancia:

1. d(i, j) >= 0. Esto es, la distancia es un número no negativo.

2. d(i, i) = 0. Es decir, la distancia de un objeto a él mismo es cero.

3. d(i, j) = d(j, i). La distancia es una función simétrica.

4. d(i, j) =<d(i, h) + d(h, j). Se trata de una desigualdad triangular que afirma

que ir directamente desde un punto i hasta un punto j nunca es más largo

que pasando por un punto intermedio h.

Finalmente, la distancia Minkowski es una generalización de las distancias

Manhattan y euclídea. Se define por: N�½, ¾� = �¥��� − �©�¥� + ¥��< − �©<¥� +⋯+ ¥��� − �©�¥���/� (3.4.3)

donde q es un entero positivo. Representa a la distancia Manhattan cuandoq = 1 y a la

euclídea cuando q = 2. El inconveniente que presenta dicha medida de la distancia es

la tendencia de los atributos de mayor magnitud a dominar al resto. Para solucionar

esta desventaja se puede normalizar los valores de los atributos continuos, de forma

que todos tomen valores dentro de un mismo rango. Por otro lado, la correlación entre

los distintos atributos puede influir negativamente en el cálculo de la distancia. Para

dar solución a este problema se usa la distancia cuadrática de Mahalanibis:

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 70

N«��� , �©� = ���, �©�∑ ���, �©�ÀH� (3.4.4)

donde xi y xj son vectores fila y P es la matriz de covarianza de los patrones. La

distancia asigna diferentes pesos a cada característica basándose en la varianza y en la

correlación lineal de los pares. Si a cada variable se le asigna un peso de acuerdo con

su importancia, la nueva distancia euclídea ponderada se puede calcular de la

siguiente manera: N�½, ¾� = �]�|��� − �©�|< +]<|��< − �©<|< +⋯+]�|��� − �©�|< (3.4.5)

Este escalado es también aplicable a las distancias Manhattan y Minkowski.

Las medidas de los coeficientes de similitud o disimilitud pueden ser utilizadas

para evaluar la calidad del clúster. En general la disimilitud d(i, j) es un número positivo

cercano a cero cuando i y j están próximos el uno del otro y se hace grande cuando son

más diferentes.

Las disimilitudes se pueden obtener mediante una simple clasificación subjetiva,

hecha por un grupo de observadores o expertos, de cuánto difieren determinados

objetos unos de otros.

Por ejemplo, en ciencias sociales se puede clasificar lo cercano que un sujeto está

de otro, así como en matemáticas, biología o física.

Alternativamente, las disimilitudes se pueden calcular con coeficientes de

correlación. Dados n objetos para clasificar la correlación producto-momento de

Pearson entre dos variables f y g se define en (3.4.5), donde f y g son variables que

describen los objetos, mf y mg son los valores medios de f y g respectivamente y xif es

el valor de f para el objeto i−ésimo, equivalentemente xig es el valor de g para el objeto

i−ésimo.

��^, _� = ∑ �Q+ÁHÁ��Q+®H®�Â+CD�∑ �Q+ÁHÁ�pÂ+CD �∑ �Q+®H®�pÂ+CD (3.4.6)

La fórmula de conversión (3.4.6) se usa para calcular los coeficientes de disimilitud

d(f, g) tanto para coeficientes de correlación paramétricos como para coeficientes de

correlación no paramétricos.

N�^, _� = �H�,�< (3.4.7)

El tener variables con valores de correlación altos y positivos implica que el

coeficiente de disimilitud está cercano a cero. Por el contrario, aquellas variables que

tengan una correlación alta negativa tendrán un coeficiente de disimilitud cercano a

uno, es decir, las variables son muy diferentes.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 71

En determinadas aplicaciones los usuarios pueden preferir usar la fórmula de

conversión (3.4.7) donde las variables con valores de correlación altos (tanto positivos

como negativos) tienen asignadas el mismo valor de similitud.

d(f, g) = 1− | R(f, g) | (3.4.8)

Igualmente, hay quien puede querer usar coeficientes de similitud s(i, j) en vez del

coeficiente de disimilitud. La fórmula (3.4.8) puede usarse para relacionar ambos

coeficientes.

s(i, j) = 1 − d(i, j) (3.4.9)

Nótese que no todas las variables deberían estar incluidas en el análisis de

clustering.

Incluir una variable que no aporte significado a un clustering dado puede hacer

que la información útil proporcionada por otras variables quede enmascarada.

Por ejemplo, en el caso de que se quisiera hacer clustering de un grupo de

personas de acuerdo con sus características físicas, incluir el atributo número de

teléfono resultaría altamente ineficiente y, por tanto, este tipo de variables basura

deben se excluidas del proceso de clustering.

A continuación se expone los tipos de datos que aparecen con frecuencia en el

clustering y cómo se preprocesan los mismos. Supóngase que el conjunto de los datos

objetivo contiene n objetos que pueden representar personas, casas, o cualquier otra

variable que pueda imaginar. Los principales algoritmos de clustering basados en

memoria operan normalmente en una de las dos siguientes estructuras de datos.

1. Matriz de datos. Ésta representa n objetos, como pueden ser n personas,

con p variables (también llamadas atributos), como pueden ser edad,

altura o peso. La estructura tiene forma de tabla relacional o de matriz de

dimensión n × p (n objetos por p variables), se muestra en (3.4.10).

Å��� �<< ⋯ ����<� �<< ⋯ �<�⋯ ⋯ ⋱ ⋯�!� �!< ⋯ �!�Ç (3.4.10)

2. Matriz de disimilitud. Almacena la colección de distancias disponibles para

todos los pares de n objetos. Se suele representar como una tabla n × n, tal

y como se muestra a continuación.

Å 0 0 ⋯ 0N�2,1� 0 ⋯ 0⋯ ⋯ ⋱ ⋯N�È, 1� N�È, 2� ⋯ 0 Ç (3.4.11)

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 72

Donde d(i, j) es la distancia medida entre los objetos i y j. Ya que d(i, j) =d(j, i) y que

d(i, i) = 0 tenemos la matriz mostrada en (3.4.11). Las medidas de similitud serán

discutidas en este apartado.

La matriz de datos suele llamarse matriz de dos modos, mientras que la matriz de

disimilitud se llama matriz de un modo ya que las filas y columnas de la primera

representan entidades diferentes, mientras que las de la segunda representan la

misma entidad. Muchos algoritmos de clustering trabajan con la matriz de disimilitud.

Si la entrada se presenta como una matriz de datos, se deben transformar en una

matriz de disimilitud antes de aplicar dichos algoritmos.

Se comentarán a continuación las distintas técnicas de clustering existentes.

Existen un gran número de algoritmos de clustering en la actualidad. La elección

de una técnica u otra dependerá tanto del tipo de datos disponibles como del

propósito de la aplicación. Si se utiliza el análisis de clustering como una herramienta

descriptiva o exploratoria, es posible que se prueben distintos algoritmos sobre los

mismos datos con el fin de ver cuál es el método que mejor se ajusta al problema.

En general, los métodos de clústeres se pueden agrupar en las siguientes

categorías:

1. Métodos particionales. Dada una base de datos con n objetos, un método

particional construye k grupos de los datos, donde cada partición

representa a un clúster y k ≤n. Esto es, clasifica a los datos en k grupos que

satisfacen los siguientes requisitos:

• Cada grupo debe contener, al menos, un elemento.

• Cada elemento debe pertenecer únicamente a un grupo.

Nótese que el segundo requerimiento se relaja en ciertas técnicas

particionales difusas.

Dado k, el número de particiones que se deben construir, los métodos

particionales realizan una partición inicial. A continuación, utilizan una

técnica iterativa de recolocación que intenta mejorar la partición

moviendo los objetos de un grupo a otro. El criterio general para decidir si

una partición es buena es que los objetos pertenecientes al mismo clúster

estén cerca mientras que los objetos pertenecientes a los clústeres

restantes estén lejos de ellos.

Conseguir una optimización global de un clustering basado en particiones

requeriría una enumeración exhaustiva de todas las posibles particiones.

Por el contrario, la mayoría de las aplicaciones adoptan una de las dos

heurísticas más populares:

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 73

• Algoritmo K-means, donde cada clúster se representa por medio de

los objetos en el clúster. Existen algunas variaciones de este

método como el Expectation Maximization.

• Algoritmo K-medianas, donde cada clúster se representa por uno

de los objetos situados cerca del centro del clúster.

Estas heurísticas funcionan bien para bases de datos pequeñas o medianas

que tengan una forma esférica. Para encontrar clústeres con formas más

complejas y en bases de datos más grandes, se debe recurrir a extensiones

de los mismos.

2. Métodos jerárquicos. Estos métodos crean una descomposición jerárquica

del conjunto de datos objeto de estudio. Un método jerárquico puede ser

clasificado como aglomerativo o divisivo:

• Aglomerativo: comienza con cada patrón en un clúster distinto y

combina sucesivamente clústeres próximos hasta un que se satisface

un criterio preestablecido.

• Divisivo: comienza con todos los patrones en un único clúster y se

realizan particiones de éste, creando así nuevos clústeres hasta

satisfacer un criterio predeterminado.

Los métodos jerárquicos presentan un pequeño inconveniente y es que

una vez que un paso se realiza (unión o división de datos), éste no puede

deshacerse. Esta falta de flexibilidad es tanto la clave de su éxito, ya que

arroja un tiempo de computación muy bajo, como su mayor problema

puesto que no es capaz de corregir errores.

Si se usa primero el algoritmo aglomerativo jerárquico y después la

recolocación iterativa se puede sacar más provecho de estas técnicas.

Existen, de hecho, ciertos algoritmos como BIRCH, Zhang T, Ramakrishnan

R., and Livny M. (1996), y CURE,Guha S., Rastogi R., and Shim K. (1998), que

han sido desarrollados basándose en esta solución integrada.

3. Métodos basados en densidad. La mayoría de los métodos particionales

sólo pueden encontrar clústeres de forma esférica. Para paliar este efecto,

se han desarrollado técnicas de clustering basados en la noción de

densidad. La idea subyacente es continuar aumentando el tamaño del

clúster hasta que la densidad (número de objetos o datos) en su vecindad

exceda de un determinado umbral, es decir, para cada dato perteneciente

a un clúster, la vecindad de un radio dado debe contener al menos un

mínimo de número de puntos. Este método se puede usar para eliminar

ruido (outliers) y para descubrir clústeres de forma arbitraria. El DBSCAN es

un método métodos típicamente basado en densidad.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 74

Existen otros tipos de técnicas de clustering, métodos basados en rejilla y métodos

basados en modelos, que dada su escaso peso en las aplicaciones que se estudian en

este documento no serán detallados con profundidad.

Mención aparte merecen los fuzzy (difusos) clustering y su estudio se realiza en

sucesivos apartados.

Se comentará ahora los distintos tipos de algoritmos particionales, como son el

algoritmo K-means (K-medias), el algoritmo Expectation Maximization (EM) y el

algoritmo K-mediods (K-medianas).

• Algoritmo K-means (K-medias)

El algoritmo K-means fue propuesto por MacQueen en el año

1968,MacQueen J. (1968). Este algoritmo coge el parámetro de entrada, k,

y particiona el conjunto de n datos en los k clústeres de tal manera que la

similitud intra-clúster es elevada mientras que la inter-clúster es baja.

Dicha similitud se mide en relación al valor medio de los objetos en el

clúster, lo que puede ser visto como si fuera su centro de gravedad.

El algoritmo procede como sigue. En primer lugar, escoge aleatoriamente k

objetos haciendo que éstos representen el centro del clúster. Cada uno de

los objetos restantes se va asignando al clúster que sea más similar

basándose en la distancia del objeto a la media del clúster. Entonces

computa la nueva media de cada clúster y el proceso sigue iterando hasta

que se consigue la convergencia (se minimiza el error cuadrático medio).

El método es relativamente escalable y eficiente para el procesado de

conjuntos de datos grandes ya que la complejidad computacional del

algoritmo es O(nkt), donde n es el número de objetos, k el número de

clústeres y t el número de iteraciones. Normalmente k << n y t << N,

produciéndose un óptimo local.

El K-means se puede aplicar sólo cuando la media de un clúster puede ser

definida, esto es, no es de aplicación en los casos en que los atributos sean

categóricos. Otro inconveniente es su sensibilidad al ruido y a los outliers.

Además, la necesidad de dar el valor de k a priori resulta uno de sus

mayores puntos débiles.

• Algoritmo Expectation Maximization (EM)

Este algoritmo es una variante del K-means y fue propuesto por Lauritzen

en 1995, MacQueen J. (1995). Se trata de obtener la FDP (función de

densidad de probabilidad) desconocida a la que pertenecen el conjunto

completo de datos. Esta FDP se puede aproximar mediante una

combinación lineal de NC componentes, definidas a falta de una serie de

parámetrosy =∪ y©∀©= 1. . ÌÍ, que son los que hay que averiguar, ·��� = ∑ Ωi��; y©��Ï©�� (3.4.11)

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 75

con ∑ Ω�Ï©�� = 1 (3.4.12)

dondeΩ son las probabilidades a priori de cada clúster cuya suma debe ser

1, que también forman parte de la solución buscada, ·���denota la FDP

arbitraria y i��; y©� la función de densidad del componente j. Cada clúster

se corresponde con las respectivas muestras de datos que pertenecen a

cada una de las densidades que se mezclan. Se pueden estimar FDP de

formas arbitrarias, utilizándose FDP normales n-dimensionales, t-Student,

Bernoulli, Poisson, y log-normales. El ajuste de los parámetros del modelo

requiere alguna medida de su bondad, es decir, cómo de bien encajan los

datos sobre la distribución que los representa. Este valor de bondad se

conoce como el likelihood de los datos. Se trataría entonces de estimar los

parámetros buscados y, maximizando este likelihood (este criterio se

conoce como ML-Maximun Likelihood). Normalmente, lo que se calcula es

el logaritmo de este likelihood, conocido como log-likelihood, ya que es

más fácil de calcular de forma analítica. La solución obtenida es la misma

gracias a la propiedad de monotonicidad del logaritmo. La forma de esta

función log-likelihood es: &�y, Î� = 1�_Π!���Ñ ·��!� (3.4.13)

donde NI es el número de instancias, que suponemos independientes

entre sí.

El algoritmo EM, procede en dos pasos que se repiten de forma iterativa:

1. Expectation. Utiliza los valores de los parámetros iniciales o

proporcionados por el paso Maximization de la iteración anterior,

obteniendo diferentes formas de la FDP buscada.

2. Maximization. Obtiene nuevos valores de los parámetros a partir de

los datos proporcionados por el paso anterior.

Después de una serie de iteraciones, el algoritmo EM tiende a un máximo

local de la función L. Finalmente se obtendrá un conjunto de clústeres que

agrupan el conjunto de proyectos original. Cada uno de estos clúster estará

definido por los parámetros de una distribución normal.

• Algoritmo K-mediods (K-medianas)

Como se comentó anteriormente, el algoritmo K-means es sensible a los

outliers ya que un objeto con un valor extremadamente elevado puede

distorsionar la distribución de los datos. En lugar de coger el valor medio

de los objetos de un clúster como punto de referencia, se podría tomar un

objeto representativo del clúster, llamado mediod, Kaufman L. and

Rousseeuw P. J., (1990), que sería el punto situado más al centro del

clúster.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 76

Así, el método particional puede ser aplicado bajo el principio de minimizar

la suma de las disimilitudes entre cada objeto y con su correspondiente

punto de referencia.

El algoritmo trata, pues, de determinar k particiones para n objetos. Tras

una selección inicial de los kmediods, el algoritmo trata de hacer una

elección mejor de los mediods repetidamente. Para ello analiza todos los

posibles pares de objetos tales que un objeto sea el mediod y el otro no. La

medida de calidad del clustering se calcula para cada una de estas

combinaciones. La mejor opción de puntos en una iteración se escoge

como los mediods para la siguiente iteración.

El coste computacional de cada iteración es deO�k�n −��<�, por lo que

para valores altos de k y n el coste se podría disparar.

El algoritmo K − mediods es más robusto que el K − means frente a la

presencia del ruido y de los outliers ya que la mediana es menos

influenciable por un outlier, u otro valor extremo, que la media. Sin

embargo, su procesado es mucho más costoso y además necesita también

que el usuario le proporcione el valor de k.

3.5 Evaluación

Una vez se ha aplicado la técnica o técnicas de minería de datos elegidas, y se han

obtenido el o los modelos de conocimientos que representan patrones de

comportamiento observados en los valores, es necesario validarlos para comprobar

que las resultados que se obtienen son, efectivamente, válidos y lo suficiente

satisfactorios. En el caso de que sea hayan obtenido más de un modelo se deben

comparar para buscar el que se ajuste mejor al problema.

Si resultara que ninguno de los modelos obtiene los resultados esperados, debe

volverse a alguno de los pasos anteriores y alterarlos para generar nuevos modelos.

Por otra parte, si el modelo final no pasará la evaluación, el proceso se podría

repetirse desde el comienzo o a partir de los pasos anteriores, sopesando el incluir

otros datos, otros algoritmos, otras metas u otras estrategias. Se puede considerar

este paso como crucial, en donde se requiere tener conocimiento del dominio.

De otro lado, si el modelo es validado y resulta ser aceptable, es decir, que

proporciona salidas adecuadas y ofrece márgenes de error admisibles, se puede

entonces considerar listo para su explotación e interpretación.

Pero antes de comenzar con la evaluación del modelo es necesario contar con una

serie de parámetros de calidad.

Nos centraremos en los más usados, contando con los indicadores previos que

necesitamos usar:

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 77

• Verdaderos positivos, TP (del inglés true positive). Es definido como el

número de veces que el clasificador asigna un 1 a la instancia que está

clasificando, y éste, efectivamente, ocurre durante los siguientes cinco

días. (Predice la ocurrencia del evento analizado)

• Verdaderos negativos, TN (del inglés true negative). Se define como el

número de veces que se ha predicho que no ocurrirá el evento analizado

durante los cinco próximos días, y verdaderamente, éste no ocurre.

(Predice la no ocurrencia del evento analizado)

• Falso positivo, FP (del inglés false positive). Es definido como el número de

veces que se detecta de forma errónea que sucederá el evento analizado

en los próximos cinco días. En otras palabras, indica el número de veces

que el clasificador asignó una etiqueta con valor 1 cuando en realidad

debía asignar un 0. (Predice la ocurrencia del evento analizado, y este no

ocurre)

• Falso negativo, FN (del inglés, false negative). Se define como el número de

veces que se ha predicho que no ocurrirá el evento analizado durante los

próximos cinco días, y sin embargo, éste ocurre. (Predice la no ocurrencia

del evento analizado, y en realidad ocurre)

A partir de los indicadores anteriores, se calculan los parámetros de calidad

propiamente dichos. En particular:

• Sensibilidad, S: Se define como la proporción de eventos identificados

correctamente, sobre el total de los mismos, sin tener en cuenta los FP. De

forma matemática se expresa como: S = TP / (TP + FN). Estadísticamente

indica la capacidad del estimador elegido para identificar como casos

positivos los que de verdad lo son, o puede verse también como la

proporción de eventos correctamente identificados.

• Especificidad, E: Es definido como el ratio de negativos identificados de

forma correcta. De forma matemática se expresa como: E= TN / (TN+FP).

Estadísticamente indica la capacidad del estimador para dar como casos

negativos los que realmente lo son, o puede verse también como la

proporción de eventos negativos correctamente identificados.

3.6 Interpretación

Una vez el modelo ha sido validado, se tiene que pasar a interpretar los resultados

obtenidos. Para ello se hace imprescindible tener un buen conocimiento del dominio

tratado y así poder interpretar correctamente los patrones obtenidos, de esta forma

podrá ser traducido y explicado en términos que puedan entender usuarios no

expertos en la materia.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 78

El fin de la interpretación no es más que, en base a los modelos o patrones

conseguidos, llegar a una conclusión que lleve a reafirmar la hipótesis que se tenía o la

desmientan y lleven a otra hipótesis e interpretación de los resultados, para así llegar a

una hipótesis final.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 79

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 80

Capítulo 4 . Reconocimiento de patrones precursores de grandes sismos

En este capítulo se especifican las técnicas anteriormente explicadas, para el caso

concreto de estudio, la extracción de conocimiento y reconocimiento de patrones

precursores de grandes sismos. Concretamente en las cuatro ciudades de Chile

analizadas.

Es importante resaltar que se comentarán las fases de Adquisición de datos,

Preprocesamiento y transformación y minería de datos aplicada, dejando la evaluación

e interpretación para el siguiente capítulo, donde además se muestran los resultados

obtenidos.

4.1 Adquisición de datos

La adquisición de los datos, es el primer paso dentro del proceso KDD, y contar

con el número suficiente para su posterior procesamiento resulta fundamental, como

se ha explicado en el anterior capítulo.

Los datos que se han utilizado para realizar este estudio fueron suministrados por

el Centro Sismológico Nacional de la Universidad de Chile (http://www.sismologia.cl/),

organismo oficial dependiente, del Departamento de Geofísica (DGF) y de la Facultad

de Ciencias Físicas y Matemáticasde la Universidad de Chile, la cual cuenta con un

amplio registro de los terremotos ocurridos en el país. Fue fundada el 1 de mayo de

1908, debido a la imperiosa necesidad de tener un organismo sismológico en el país

por la alta tasa de actividad sísmica que presentaba el país, que se hizo más patente si

cabe tras el gran terremoto que devastó Valparaíso en 1906. Su primer director fue un

científico francés, Fernand de Montessus de Ballore. El centro cuenta con unas 65

estaciones sismológicas repartidas por todo Chile.

Se decidió centrarse en cuatro zonas del país que ofrecían una gran actividad

sísmica durante los últimos años. Concretamente las zonas escogidas fueron:

• Talca

• Pichilemu

• Santiago

• Valparaíso

Con el objetivo de contar con el suficiente número de datos, se seleccionaron los

terremotos ocurridos en los últimos once años. Se ha recabado información de esta

manera, de los terremotos registrados entre el periodo de tiempo comprendido entre

enero de 2001 y mediados de 2012.

Los datos que se solicitaron de dichas zonas, y con los que al fin y al cabo se ha

trabajado en este estudio son los siguientes:

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 81

• Magnitud del terremoto.

• Localización del terremoto. Mediante dos parámetros, la latitud y la

longitud.

• Fecha del terremoto. Fecha exacta de ocurrencia del terremoto,

incluyendo la hora y minutos.

Es importante resaltar, igualmente, que siguiendo las recomendaciones de

expertos en sismología, sólo se han obtenido terremotos con magnitud M >3.0ya

que por debajo de ese umbral son muchas veces imperceptibles por el ser

humano y es prácticamente imposible que ocasionen daños materiales. En

resumen, los datos obtenidos de acuerdo con los parámetros anteriormente

comentados fueron:

1. Para la zona de Talca, un total de 274 terremotos.

2. Para la zona de Pichilemu, un total de 414 terremotos.

3. Para la zona Santiago, un total de 551 terremotos.

4. Para la zona Valparaíso, un total de 1050 terremotos

4.2 Preprocesamiento y transformación

Esta sección expone todos los fundamentos matemáticos que apoyan la

metodología aplicada. Primero se describe la ley de Gutenber-Ritcher. Después, se

presenta el parámetro usado para llevar a cabo predicciones (la variable b) y se discute

su relevancia como indicador de terremotos.

1. Ley de Gutenberg-Ritcher

La distribución de magnitud de terremotos ha sido estudiada desde

comienzos del siglo veinte. Gutenberg and Richter (1942) e Ishimoto and

Iida (1939) observaron que el número de terremotos, N, de magnitud

mayor o igual a M sigue una ley de distribución de potencia definida por Ì�5� = Õ5H¶ (4.2.1)

Donde ∝ y β son parámetros de ajuste.

Gutenberg and Richter (1954) transformaron esta ley de potencia en una

ley lineal expresando esta relación para la distribución de frecuencia de

magnitud de terremotos como 1�_� �Ì�5�� = Ø − Ù5 (4.2.2)

La ley relaciona el número acumulativo de eventos N(M) con magnitudes

mayores o iguales a M con la actividad sísmica, a, y el factor de distribución

de tamaño, b. El valor a es el logaritmo del número de terremotos con

magnitud mayor o igual a cero. El valor b es un parámetro que refleja la

tectónica del área de análisis (Lee & Yang, 2006) y ha sido relacionado con

las características físicas del área. Un valor alto del parámetro implica que

el número de terremotos de pequeña magnitud es predominante, y por lo

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 82

tanto, la región tiene una resistencia baja. Por otro lado, un valor bajo

muestra que el número relativo de pequeños y grandes eventos es similar,

implicando una mayor resistencia del material.

Gutenberg y Ritcher usaron el método de mínimos cuadrados para estimar

coeficientes en la relación de frecuencia-magnitud de la fórmula (4.2.2) Shi

and Bolt (1982) señalaron que el valor b puede ser obtenido por este

método pero la presencia de incluso grandes terremotos tiene una

influencia significativa en los resultados. El método de máxima

verosimilitud, por lo tanto, aparece como una alternativa al método de

mínimos cuadrados, el cual produce estimaciones que son más robustas

cuando el número de grandes terremotos poco frecuentes cambia.

También demostraron que para grandes muestras y bajas variaciones

temporales de b, la desviación estándar del valor b estimado es: ¡�Ù� = 2.30Ù<¡�5� (4.2.3)

Donde ¡<�5� = ∑ �«+E«�ÛÛÛÛpÂ+CD ! (4.2.4)

y n es el número de eventos y Mi la magnitud de un sólo evento.

Se asume que las magnitudes de terremotos que ocurren en una región y

en un periodo de tiempo determinado son independientes, e

idénticamente se distribuyen variables que siguen la ley de Gutenberg-

Ritcher (Ranalli, 1969) . Esta hipótesis es equivalente a suponer que la

densidad de probabilidad de la magnitud M es exponencial: ^�5, �� = �exp�−��5 −5 " (4.2.5)

Donde � = #djk���

(4.2.6)

y M0 es la magnitud de corte.

Así, con el objetivo de estimar el valor b, es necesario una estimación

previa de β. En Utsu (1965) , el método de máxima verosimilitud fue

aplicado para obtener un valor para β definido por � = �«H«IÛÛÛÛÛÛÛÛÛ (4.2.7)

donde Ā es la magnitud media de todos los terremotos en el conjunto de

datos.

De todas las posibilidades anteriormente mencionadas, el método de

máxima verosimilitud ha sido seleccionado para la estimación del valor b

en este trabajo.

2. El valor b como precursor sísmico

La variable b de la ley de Gutenberg-Ritcher es un parámetro importante,

porque refleja las propiedades tectónicas y geofísicas de las rocas y las

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 83

variaciones de presión de fluidos en la región de que se trate (Lee & Yang,

2006, Zollo, Marzocchi, Capuano, Lomaz, & Iannaccone, 2002). Por ello, el

análisis de su variación ha sido normalmente usado en la predicción de

terremotos (Nuannin, Kulhanek, & Persson, 2005). Es importante saber

cómo la secuencia de variables b ha sido obtenida, antes de presentar

conclusiones sobre su variación. Los estudios de Gibowitz (1974) and

Wiemer et al. (2002) en la variación de la variable b en el tiempo se refiere

a las réplicas. En general, mostraron que la variable b tiende a decrecer

cuando muchos terremotos ocurren en un área local durante un periodo

de tiempo corto.

Otros autores Schorlemmer, Wiemer, and Wyss (2005), Nuannin et al.

(2005) infieren que el valor b es un medidor de tensión que dependen

inversamente de la tensión diferencial.

Por lo tanto Nuannin et al. (2005) presentó un análisis detallado de la

variación de la variable b. Estudió los terremotos en la región de Andaman-

Sumatra. Para considerar variaciones en el valor b, fue usado un espacio de

tiempo de deslizamiento. La variable b fue calculada para un grupo de

cincuenta eventos, desde el catálogo de terremotos. Después, el espacio se

cambia por un tiempo correspondiente con cinco eventos. Concluyeron

que los terremotos son normalmente precedidos por un gran decremento

en b, aunque en algunos casos un pequeño incremento de este valor

precede a un sismo.

Sammonds, Meredith, and Main (1992) clarificaron los cambios de tensión

en la falla y la variación de la variable b que rodea a un terremoto

importante. Afirman que "un estudio sistemático de cambios temporales

en variables b de sismicidad han mostrado que grandes terremotos son

normalmente precedidos por un incremento a medio plazo en b, seguido

por un decremento en los meses o semanas antes de un terremoto. El inicio

de la variable b puede preceder a ocurrencias de terremotos en hasta siete

años", Sammonds, Meredith, and Main (1992).

4.3 Minería de datos

En esta sección se describe la metodología propuesta con el objetivo de descubrir

conocimiento de series de terremotos temporales.

Ante todo, el conjunto de datos de terremotos se construye como sigue: cada

terremoto se representa por tres características: la magnitud, la variable b y la fecha

de ocurrencia. Por ello el terremoto i-esimo se define como: �� = �5�, �, ���, (4.3.1)

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 84

donde Mi es la magnitud del terremoto, bi es la variable b asociada al terremoto y

ti es la fecha en la cual el terremoto tuvo lugar.

La variable b es calculada siguiendo las fórmulas (4.2.6) y (4.2.7) considerando los

50 eventos precedentes Nuannin et al. (2005). Por tanto, el número de terremotos con

magnitud mayor o igual a 3 sigue una ley exponencial permitiendo la aplicación de la

ley de Gutenberg-Ritcher. Por otro lado, la magnitud de corte es establecida a tres.

Además, los datos son agrupados en conjuntos de cinco terremotos ordenados

cronológicamente de acuerdo con la metodología propuesta en Nuannin et al. (2005).

Así, se proporciona una ley más simple con interpretaciones más fáciles. Cada grupo Gj

se representa por la media de la magnitud de cinco terremotos, el tiempo transcurrido

desde el primer terremoto al quinto y la variación suscrita de la variable b en dicho

intervalo de tiempo, por ejemplo,

Ü© = Ý�$H�, … . . , �$ß~�È� = 5¾;¾ = 1,… . , '��- (4.3.2)

donde N es el número de terremotos en el conjunto de datos y [N/5] es el mayor

entero menor o igual que N/5. Así, Ü© = �5àÛÛÛ, ΔÙ© , Δ�©� (4.3.3)

Donde 5àÛÛÛ = ��∑ 5�,~�È� = 5¾$��$H� (4.3.4)

ΔÙ = Ù$ − Ù$H�, ~�È� = 5¾ (4.3.5) Δ�© = �$ − �$H�, ~�È� = 5¾ (4.3.6)

Finalmente, el conjunto de datos está compuesto por la secuencia temporal de

todos los Gj, áF = ÝÜ�, Ü<, … . . , Ü��/�"ß (4.3.7)

El objetivo es buscar patrones en datos que preceden la aparición de terremotos

con magnitud mayor o igual 4.5. Por lo tanto, el algoritmo K-means es aplicado al

conjunto de datos, DS, con la intención de clasificar las muestras en diferentes grupos.

Como paso previo, se tiene que determinar el número óptimo de clústeres ya que el

algoritmo K-means necesita este número como datos de entrada.

Para este propósito, se aplica un índice válido bien conocido (índice de silueta)

sobre los datos agrupados para números diferentes de clústeres. Así, cada muestra es

considerada sólo por la etiqueta asignada por el algoritmo K-means en análisis más

detallados. Una vez que estas etiquetas han sido obtenidas, se buscan secuencias

específicas de etiquetas como precursoras de terremotos a medio plazo.

La siguiente sección detalla el algoritmo k-means, utilizado en este estudio.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 85

El algoritmo K-means fue originalmente presentado por Macqueen (1968). Para

cada clúster, su centroide es usado como el punto más representativo. El centroide de

un grupo de elementos es el centro de gravedad de todos los elementos en el clúster.

En consecuencia, sólo puede ser aplicado cuando la media de cada clúster puede ser

definida, por ejemplo, el algoritmo K-means puede clasificar conjuntos de datos

conteniendo características cuantitativas.

El algoritmo reúne n objetos en K conjuntos e incrementa la similaridad intra-

clúster al mismo tiempo. La similaridad es medida con respecto al centroide de los

objetos que pertenecen al clúster. Entonces, el propósito es minimizar las diferencias

intra-clúster definidas como las siguientes funciones de error cuadradas â = ∑ ∑ |�©Hã�|<Q¦∈Ï+ ,$��� (4.3.8)

donde K es el número de clúster, Ci es el clúster i, µi es el centroide del clúster i y xj

es el j-ésimo objeto a agrupar.

El algoritmo K-means es un método simple y eficiente, específicamente útil

cuando grandes conjuntos de datos son manejados y converge extremadamente

rápido en la mayoría de los casos prácticos. En este trabajo, se aplica K-means varias

veces con el objetivo de evitar que sean encontrados los mínimos locales y para

reducir la dependencia de los centros iniciales de clúster, los cuales son seleccionados

aleatoriamente.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 86

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 87

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 88

Capítulo 5 . Resultados

5.1 Resultados Talca

Talca es una ciudad de Chile, situada en la región de Maule y en la provincia del

mismo nombre, de la que es capital. Se encuentra localizada hacia el centro del país.

Cuenta con una superficie de 232 km2 y una población estimada de 250.000

habitantes.

El nombre de Talca proviene de la palabra mapudungun (idioma de un pueblo

indio que habita en Chile), Tralka, que significa “lugar del trueno”, y su fundación se

sitúa alrededor del 12 de mayo de 1742.

Es una ciudad muy activa en cuanto a seísmos se refiere, habiéndose registrado

fuertes terremotos a lo largo de toda su historia. Uno de los más destructivos ocurrió

en 1928, alcanzando una magnitud de 8,3 Ms y destruyendo aproximadamente el 75%

de la ciudad. Las consecuencias de tal catástrofe fueron 279 fallecidos, 1.083 heridos y

127.043 damnificados.

En el estudio realizado sobre esta área, en el periodo de tiempo comprendido

entre el año 2.002 y el año 2.012 se contabilizaron 24 terremotos mayores de 4,4 Ms,

los cuales se pueden ver representados en el siguiente gráfico, junto con las secuencias

obtenidas, y la variación de la variable b durante ese periodo de tiempo.

Gráfico 5.1. Zona: Talca. Atributo b, etiquetas y terremotos.

En dicho gráfico se muestra en el eje X la fecha, en la parte izquierda los valores de

las etiquetas y los valores de la variable b, y en la parte derecha los valores de los

terremotos mayores a 4,4 Ms.

Así, clasificando los terremotos dependiendo de la secuencia en la que han

ocurrido, se pueden comparar con el número total de ocurrencias de cada secuencia.

Destacar que 2 de los 24 terremotos ocurridos se situaba fuera del periodo estudiado,

ya que ocurrieron dentro de los primeros 50 terremotos analizados y necesarios para

0

2

4

6

0

0,5

1

1,5

2

2,5

2003 2004 2005 2006 2007 2008 2009 2010 2011 2012

b etiquetas >4.4

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 89

obtener la variable b. Así el estudio final se hace sobre 22 terremotos de magnitud

superior a 4,4.

Tabla 5.1 Zona: Talca. Clasificación terremotos

Secuencia Terremotos ocurridos Ocurrencias de la secuencia

[0,0] 6 16

[0,1] 6 6

[0,2] 2 4

[1,0] 1 6

[1,1] 6 8

[1,2] 0 0

[2,0] 1 4

[2,1] 0 0

[2,2] 0 0

Resaltados en color azul, se encuentran las secuencias elegidas para el estudio, en

este caso las secuencias [0,1], [0,2] y [1,1].

De ello se obtienen los siguientes resultados:

Tabla 5.2. Zona: Talca. Resultados secuencias escogidas.

TP TN FP FN S E

Resultados secuencias elegidas 14 18 4 8 0,64 0,82

Antes de comentar los resultados obtenidos, comentar las columnas que presenta,

ya que todos los resultados de las distintas zonas analizadas presentarán el mismo

formato. Se cuantifica, cuando las secuencias elegidas han dado una alarma de

terremoto acertada (TP), cuando no ha dado alarma sin que fuera a haber terremoto

(TN), las veces que da una alarma de terremoto y no hay (FP) y cuando no se da alarma

de terremoto, pero realmente lo hay (FN).

En cuanto a los dos últimos valores se refieren a medidas de evaluación,

sensibilidad (S) y especificidad (E). La sensibilidad no es más que los TP dividido entre

el número total de terremotos ocurridos (TP+FN), mientras que la especificidad es los

TN dividido entre la suma de los TN y los FP.

En este caso se puede comprobar cómo se obtienen resultados prometedores. Se

puede observar que la tasa de FP es muy baja debido, justamente, a la elección de

secuencias candidatas que se han hecho. Este hecho repercute directamente en la alta

especificidad obtenida. Es decir, con el conjunto de secuencias escogidas se tiene la

certeza al 82% de que cuando se vaticine que no habrá un terremoto, efectivamente

no ocurrirá. Por otro lado, se intentaba cubrir el máximo posible de eventos y así lo

demuestra la sensibilidad elevada que hemos obtenido, con un 62% de acierto.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 90

5.2 Resultados Pichilemu

Pichilemu es una ciudad de Chile, situada en la región de O’Higgins y en la

provincia de Cardenal Caro, de la que es capital. Se encuentra localizada hacia el centro

del país. Cuenta con una superficie de 749 km2 y una población estimada de 12.866

habitantes.

El nombre de Pichilemu significa en lengua mapdugun “Bosque Pequeño”, y su

fundación se sitúa alrededor del 24 de enero de 1544.

Se considera una zona bastante activa en cuanto a sismos se refiere, al igual que

todo el país de Chile en sí. Uno de los últimos terremotos más significativos ocurrió en

marzo de 2010, conocido como "terremoto de Pichilemu de 2010" o como "terremoto

de la región de O'Higgins" tuvo una magnitud de 6.9 Ms. El origen del terremoto fue

situado 15 kilómetros al noroeste de la ciudad, aunque fue considerado inicialmente

como réplica del terremoto del 27 de febrero de 8.8 Ms que sacudió gravemente a

todo el país, fue estimado como un terremoto completamente diferente a este.

En las horas siguientes al terremoto de Pichilemu, se sucedieron una serie de

réplicas con once movimientos sísmicos con magnitud superior a 5,0 y dos con

magnitud superior a 6,0. Además, el primero de estos tres sismos generó una alerta de

tsunami preventiva.

En lo que respecta al estudio realizado sobre esta área, se contabilizaron 75

terremotos entre los años 2002 a 2012 mayores de 4,4 Ms, los cuales se pueden ver

representados en el siguiente gráfico, junto con las secuencias obtenidas, y la variación

de la variable b durante ese periodo de tiempo.

Gráfico 5.2. Zona: Pichilemu. Atributo b, etiquetas y terremotos.

Así, clasificando los terremotos dependiendo de la secuencia en la que han

ocurrido, se pueden comparar con el número total de ocurrencias de cada secuencia.

Comentar en este punto que 2 de los 75 terremotos ocurridos se situaban fuera del

periodo estudiado, ya que ocurrieron dentro de los primeros 50 terremotos analizados

0

2

4

6

8

0

0,5

1

1,5

2

2,5

2005 2006 2007 2008 2009 2010 2011 2012

b etiquetas >4,4

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 91

y necesarios para obtener la variable b. Así el estudio final se hace sobre 73 terremotos

de magnitud superior a 4,4.

Tabla 5.3 Zona: Pichilemu. Clasificación terremotos

Secuencia Terremotos ocurridos Ocurrencias de la secuencia

[0,0] 3 8

[0,1] 1 7

[0,2] 7 8

[1,0] 2 7

[1,1] 5 8

[1,2] 6 6

[2,0] 6 8

[2,1] 6 6

[2,2] 37 37

Resaltados en color azul, se encuentran las secuencias elegidas para el estudio, en

este caso las secuencias [0,2], [1,1],[1,2], [2,1] y [2,2].

De ello se obtienen los siguientes resultados:

Tabla 5.4. Zona: Pichilemu. Resultados secuencias escogidas.

TP TN FP FN S E

Resultados secuencias elegidas 61 18 4 12 0,84 0,82

Como se puede observar, se obtienen resultados verdaderamente positivos con

una gran cantidad de TP, habiendo predicho 61 de los 73 terremotos que de verdad

ocurrieron. Debido a esto se obtiene un 84% de acierto escogiendo las secuencias

mencionas anteriormente.

Así mismo el bajo valor de FP, solamente 4, hace que se obtenga un alto valor de

precisión en la especificidad, concretamente se indica que en el 82% de los casos en

los que prediga que no habrá terremotos, se acertará.

5.3 Resultados Santiago

Santiago es ciudad y capital de Chile, situada en la región metropolitana de

Santiago y en la provincia también conocida de Santiago, de la que también es capital.

Se encuentra localizada un poco por encima del centro del país. La ciudad acoge los

principales organismos del país, como son el administrativo, comercial, cultural,

financiero y gubernamental. Cuenta con una superficie de 641 km2 y una población

estimada de 5.429.000 habitantes.

El 12 de febrero de 1.541, el conquistador extremeño Pedro de Valdivia fundaría

oficialmente la ciudad de Santiago del Nuevo Extremo (Santiago de la Nueva

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 92

Extremadura) en honor al Apóstol Santiago, santo patrono de España. Sin embargo, no

se permitiría el establecimiento definitivo hasta el año 1607 debido, entre otros

factores, a una sucesión de desoladores terremotos.

Es una ciudad activa en términos sísmicos, habiéndose registrado fuertes

terremotos a lo largo de toda su historia. De hecho el más destructivo documentado se

remonta a la todavía época colonial, alrededor del 13 de mayo de 1647. El sismo se

sintió en su totalidad por lo que entonces se conocía como Reino de Chile, colonia del

imperio español. Fue conocido como “Terremoto Magno” y tuvo una magnitud

estimada de 8,5 en la escala de Richter. El sismo arrasó casi la totalidad de las

construcciones coloniales existentes, considerándose como el quinto terremoto más

mortífero en la historia de Chile. No en vano se estima que fallecieron alrededor de

600 personas, en una ciudad que tenía una población de 4.000 habitantes, por lo que

perecieron entre el 15% y el 25% de la población total.

Concretando, en el estudio llevado a cabo sobre esta área, se contabilizaron 15

terremotos entre los años 2002 a 2012 mayores de 4,4 Ms, los cuales se pueden ver

representados en el siguiente gráfico, junto con las secuencias obtenidas, y la variación

de la variable b durante ese periodo de tiempo.

Gráfico 5.3. Zona: Santiago. Atributo b, etiquetas y terremotos.

De nuevo, clasificando los terremotos dependiendo de la secuencia en la que han

ocurrido, se pueden comparar con el número total de ocurrencias de cada secuencia.

Hay que destacar en este punto que 1 de los 15 terremotos ocurridos se situaban fuera

del periodo estudiado, por lo que, como se comentó anteriormente en otras áreas de

estudio, sólo se toman para el análisis final 14 de los 15 terremotos, como se muestra

en la siguiente tabla.

Tabla 5.5 Zona: Santiago. Clasificación terremotos

Secuencia Terremotos ocurridos Ocurrencias de la secuencia

[0,0] 6 66

[0,1] 0 2

0

2

4

6

8

0

0,5

1

1,5

2

2,5

3

2002 2004 2006 2008 2010 2012

b etiquetas >4,4

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 93

[0,2] 0 6

[1,0] 0 1

[1,1] 3 6

[1,2] 0 5

[2,0] 1 6

[2,1] 2 5

[2,2] 2 2

Resaltados en color azul, se encuentran las secuencias elegidas para el estudio, en

este caso las secuencias [1,1], [2,1] y [2,2].

De ello se obtienen los siguientes resultados:

Tabla 5.6 Zona: Santiago. Resultados secuencias escogidas

TP TN FP FN S E

Resultados secuencias elegidas 7 79 6 7 0,5 0,92

De nuevo, destacar la gran cantidad de TN obtenidos, lo cual, junto con el bajo

número de FP, hace que se obtenga una precisión del 92% de especificidad, por lo que

se podría afirmar que cada vez que se estime que no habrá terremoto, siguiendo las

secuencias escogidas, se acertará en casi todos los casos.

En el caso de la sensibilidad, aun no ofreciendo unos datos abrumadoramente

buenos, se obtiene una puntuación satisfactoria ya que la precisión de acierto de

ocurrencia de terremotos es de un 50%, resultado obtenido de predecir 7 de los 14

terremotos ocurridos

5.4 Resultados Valparaíso

Valparaíso es una ciudad de Chile, situada en la región y provincia del mismo

nombre, siendo la capital de ambas. Se encuentra localizada ligeramente por encima

del centro del país. Cuenta con una superficie de unos 438 km2 y una población

estimada de 294.848 habitantes, convirtiéndola en una de las 3 ciudades más grandes

de todo el país.

Fue fundada en los primeros días de septiembre de 1.536 por el capitán español

Juan de Saavedra, el cual, junto a treinta hombres, buscaban un barco de provisiones

perdido, dando con él en este lugar. Saavedra denominó a la bahía en donde encontró

a la embarcación como Valparaíso, en honor a su ciudad natal: Valparaíso de Arriba,

en España.

Junto al resto de ciudades estudiadas en este trabajo, se considera una zona

bastante activa en cuanto a sismos se refiere, al igual que todo el país. Uno de los

mayores fue el Terremoto de Valparaíso de 1.730, movimiento ocurrido el 8 de julio de

1730, de una magnitud de 8,7Ms. Su epicentro se situó hacia el norte de la ciudad y

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 94

provocó un tsunami muy destructivo de magnitud Mt=8,75 que inundó las partes bajas

de Valparaíso y afectó a más de 1.000 km de la costa de Chile. Se estima que murieron

unas 3.000 personas.

En el estudio realizado sobre esta área, en el periodo de tiempo comprendido

entre el año 2.002 y el año 2.012 se contabilizaron 53 terremotos mayores de 4,4 Ms,

los cuales se pueden ver representados en el siguiente gráfico, junto con las secuencias

obtenidas, y la variación de la variable b durante ese periodo de tiempo.

Gráfico 5.4. Zona: Valparaíso. Atributo b, etiquetas y terremotos.

Una vez más, clasificando los terremotos dependiendo de la secuencia en la que

han ocurrido, se pueden comparar con el número total de ocurrencias de cada

secuencia. Y de nuevo hay que destacar en este punto que 1 de los 53 terremotos

ocurridos se situaban fuera del periodo estudiado, por lo que, como se comentó

anteriormente en otras áreas de estudio, sólo se toman para el análisis final 52 de los

53 terremotos, como se muestra en la siguiente tabla.

Tabla 5.7 Zona: Valparaíso. Clasificación terremotos

Secuencia Terremotos ocurridos Ocurrencias de la secuencia

[0,0] 7 72

[0,1] 3 8

[0,2] 8 33

[1,0] 1 4

[1,1] 2 3

[1,2] 9 9

[2,0] 5 38

[2,1] 2 4

[2,2] 15 29

Resaltados en color azul, se encuentran las secuencias elegidas para el estudio, en

este caso las secuencias [1,1], [1,2] y [2,1].

0

1

2

3

4

5

6

7

0

0,5

1

1,5

2

2,5

2002 2004 2006 2008 2010 2012

b etiquetas >4,4

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 95

De ello se obtienen los siguientes resultados:

Tabla 5.8 Zona: Valparaíso. Resultados secuencias escogidas

TP TN FP FN S E

Resultados secuencias elegidas 23 144 3 39 0,37 0,98

Se puede observar que la tasa de TN es muy alta en comparación con los FP,

debido precisamente a la elección de secuencias candidatas escogidas. Este hecho

repercute directamente con la alta especificidad obtenida, consiguiéndose una certeza

del 98% de que cuando se prediga que no habrá terremoto, verdaderamente, no

ocurrirá. Por otro lado, se ha intentado cubrir de nuevo el máximo número posible de

eventos, aunque en este caso, ha sido bajo, siendo un 37% el porcentaje de precisión

de esta medida, resultado de predecir 23 de los 62 terremotos ocurridos.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 96

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 97

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 98

Capítulo 6 . Conclusiones

En este trabajo se ha realizado un extenso estudio del estado del arte sobre

predicción de terremotos. Este hecho ha permitido descubrir que existe una

proporción muy pequeña de estudios basados en minería de datos, sobre todo si se

compara con la cantidad de ellos basados en asunciones estadísticas o estudios

puramente geofísicos. Desde ese punto de vista, uno de los primeros objetivos era

demostrar la potencia que esta familia de técnicas tiene en un problema aún sin

resolver y con muchas cuestiones abiertas.

Existen fundamentalmente dos tipos de análisis: aquellos que se encargan de

predecir la ocurrencia de terremotos a partir de determinados patrones y aquellos que

se encargan de descubrir, precisamente, dichos patrones. Este estudio se posiciona en

la segunda tarea y para la consecución de la misma se ha desarrollado una

metodología para el descubrimiento de patrones precursores, basada en técnicas de

clustering.

Esta metodología ha sido probada en datos de uno de los países con mayor

actividad sísmica a nivel mundial: Chile. Y para probar la generalidad del método

propuesto, se han evaluado cuatro zonas diferentes y con diferentes propiedades

geofísicas Santiago, Pichilemu, Talca y Valparaíso.

Otro de los puntos destacables es la pequeña incertidumbre espacial de las zonas

estudiadas. Es decir, se ha trabajado con datos recogidos en un radio de entre 50 y 100

kilómetros, dependiendo de la ciudad en cuestión. Este hecho es digno de mención ya

que los resultados aquí presentados son muy precisos en ese aspecto: sería muy fácil

hacer predicciones del tipo: “durante los próximos 5 meses habrá un terremoto en

Asia”, tal y como hacen algunos equipos de investigación muy mediáticos.

Como líneas de investigación futura, se plantea una muy clara consistente en

intentar generalizar la metodología y resultados a cualquier parte del mundo. Esto es,

intentar descubrir patrones a nivel mundial que pudieran identificar de manera

efectiva la ocurrencia de terremotos.

Como siguiente paso, éste tal vez más ambicioso, sería buscar relaciones

temporales entre dichos patrones. Se sabe que lo que ocurre en una zona de

subducción acaba afectando a otras zonas. En ese sentido se plantea el problema de

predecir terremotos en una zona determinada del mundo, a partir del descubrimiento

de patrones en otra, con un cierto desfase temporal.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 99

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 100

Capítulo 7 . Referencias

Adeli, H., Panakkat, A., 2009. A probabilistic neural network for earthquake

magnitude prediction. Neural Networks 22, 1018–1024. Akaike, H., 1974. New look at

statistical-model identification. IEEE Transactions on Automatic Control 6, 716–723

AC19.

Aki, K., 1965. Maximum likelihood estimate of b in the formula logN=a−bM and its

confidence limits. Bulletin of the Earthquake Research Institute 43, 237–239.

Akinci, A., 2010.HAZGRIDX: earthquake forecasting model forML≥ 5.0 earthquakes

in Italy based on spatially smoothed seismicity. Annals of Geophysics

53.doi:10.4401/ag-4811.

Allen, C.R., 1968. The tectonic environments of seismically active and inactive

areas along the San Andreas fault system. In: Dickinson, W.R., Grantz, A. (Eds.),

Proceedings of the Conference on Geologic Problems of the San Andreas Fault System.

Geol. Sci., 11. Stanford Univ. Publ, pp. 70–82.

Alves, E.I., 2006. Earthquake forecasting using neural nets.Nonlinear Dynamics 44.

doi:10.1007/s11071-006-2018-1.Co.

Anderson, J.G., Rockwell, T.K., Agnew, D.C., 1989.Past and possible future

earthquakes of significance to the San Diego region. Earthquake Spectra 5, 299–335.

Arrowsmith, R., McNally, K., Davis, J., 1997. Potential for earthquake rupture and

M 7 earthquakes along the Parkfield, Cholame, and Carrizo segments of the San

Andreas Fault. Seismological Research Letters 68, 902–916.

Bakun, W.H., Lindh, A.G., 1985. The Parkfield, California, earthquake prediction

experiment. Science 229, 619–624.

Bakun, W.H., McEvilly, T.V., 1984. Recurrence models and Parkfield, California,

earthquakes.Journal of Geophysical Research 89, 3051–3058.

Bakun, W.H., King, G.C.P., Cockerham, R.S., 1986. Seismic slip, aseismic slip, and

the mechanics of repeating earthquakes on the Calaveras fault, California, in

Earthquake Source Mechanics. In: Das, S., Boatwright, J., Schlotz, C.H. (Eds.), Geophys.

Monogr.Ser., vol. 37. AGU, Washington, D.C, pp. 195–208.

Bakun, W.H., Aagaard, B., Dost, B., Ellsworth, W.L., Hardebeck, J.L., Harris, R.A., Ji,

C., Johnston, M.J.S., Langbein, J., Lienkaemper, J.J., Michael, A.J., Murray, J.R., Nadeau,

R.M., Reasenberg, P.A., Reichle, M.S., Roeloffs, E.A., Shakal, A., Simpson, R.W.,

Waldhauser, F., 2005. Implications for prediction and hazard assessment from the

2004 Parkfield earthquake. Nature 437, 969–974.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 101

Båth, M., 1965. Lateral inhomogeneities in the upper mantle. Tectonophysics 2,

483–514.

Ben-Zion, Y., Lyakhovsky, V., 2002.Accelerated seismic release and related aspects

of seismicity patterns on earthquake faults.Pure and Applied Geophysics 159, 2385–

2412.

Biasi, G., Weldon II, R.J., 2006. Estimating surface rupture length and magnitude of

paleoearthquakes from point measurements of rupture displacement. Bulletin of the

Seismological Society of America 96, 1612. doi:10.1785/0120040172.

Biasi, G.P., Weldon II, R.J., Fumal, T.E., Seitz, G.G., 2002. Paleoseismic event dating

and the conditional probability of large earthquakes on the southern San Andreas

fault, California. Bulletin of the Seismological Society of America 92, 2761–2781.

Bird, P., Kagan, Y.Y., 2004. Plate-tectonic analysis of shallow seismicity: apparent

boundary width, beta, corner magnitude, coupled lithosphere thickness, and coupling

in seven tectonic settings. Bulletin of the Seismological Society of America 94, 2380–

2399.

Boore, D.M., Joyner, W.B., Fumal, T.E., 1997. Equations for estimating horizontal

response spectra and peak acceleration from western North America earthquakes: a

summary of recent work. Seismological Research Letters 68, 128–153.

Bowman, D.D., King, G.C.P., 2001.Accelerating seismicity and stress accumulation

before large earthquakes.Geophysical Research Letters 28, 4039–4042.

Bowman, D.D., Sammis, C.G., 2004.Intermittent criticality and the Gutenberg

Richter distribution. Pure and Applied Geophysics 161, 1,945–1,956.

Bowman, D.D., Ouillon, G., Sammis, C.G., Sornette, A., Sornette, D., 1998.An

observational test of the critical earthquake concept. Journal of Geophysical Research

103, 24,359–24,372.

Brehm, D.J., Braile, L.W., 1998. Intermediate-term earthquake prediction using

precursory events in the New Madrid Seismic Zone. Bulletin of the Seismological

Society of America 88, 564–580.

Brodsky, E.E., 2006. Long-range triggered earthquakes that continue after the

wave train passes. Geophysical Research Letters 33, L15313.

doi:10.1029/2006GL026605.

Bufe, C.G., Varnes, D.J., 1993. Predictive modeling of the seismic cycle of the

greater San Francisco Bay region.Journal of Geophysical Research 98, 9871–9883.

Burnham, K.P., Anderson, D.R., 2002. Model Selection and Multimodel Inference:

A Practical Information-Theoretic Approach. Springer, New York.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 102

Cao, L., Fang, H., Li, Q., Chen, J., 1996. Forecasting b-values for seismic events.

International Journal of Bifurcation and Chaos 6, 545–555.

Cao, T.Q., Bryant, W.A., Rowshandel, B., Branum, D., Wills, C.J., 2003. The Revised

2002 California Probabilistic Seismic Hazard

Maps.www.conservation.ca.gov/CGS/rghm/psha/fault_parameters/pdf/2002_CA_Haz

ard_Maps.pdf2003.

Cao, T.Q., Petersen, M.D., Frankel, A.D., 2005. Model uncertainties of the 2002

update of California seismic hazard maps. Bulletin of the Seismological Society of

America 95,2040–2057.

Cavallo, E., Powell, A., Becerra, O., 2010. Estimating the direct economic damage

of the earthquake in Haiti. Inter-American Development Bank working paper series,

No. IDB-WP-163.

CEPEC Report, 2004a. Report to the Director, Governor's Office of Emergency

Services by the California Earthquake Prediction Evaluation Council March 2, 2004.

http://www.oes.ca.gov/Operational/OESHome.nsf/PDF/CEPECkbReport/$file/CEPEC_K

BReport_3-2-4.pdf2004March 2004.

CEPEC Report, 2004b. Report to the Director, Governor's Office of Emergency

Services by the California Earthquake Prediction Evaluation Council December 9,

2004.http://www.oes.ca.gov/WebPage/oeswerbsite.nsf/Content/899D66837A2B126C

8825742C007645C4?OpenDocument2004December 2004.

Chang, W.L., Smith, R.B., 2002. Integrated seismic-hazard analysis of the Wasatch

Front, Utah. Bulletin of the Seismological Society of America 92, 1902–1922.

Chastin, S.F.M., Main, I.G., 2003. Statistical analysis of daily seismic event rate as a

precursor to volcanic eruptions. Geophysical Research Letters 30 (13),

1671.doi:10.1029/2003GL016900.

Chen, C.C., Wu, Y.X., 2006. An improved region–time–length algorithm applied to

the 1999 Chi-Chi, Taiwan earthquake. Geophysical Journal International 166,1144–

1147.

Chen, C., Rundle, J.B., Holliday, J.R., Nanjo, K.Z., Turcotte, D.L., Li, S., Tiampo, K.F.,

2005.The 1999 Chi-Chi, Taiwan, earthquake as a typical example of seismic activation

and quiescence. Geophysical Research Letters 32, L22315. doi:10.1029/2005GL023991.

Christophersen, A., Smith, E.G., 2008. Foreshock rates from aftershock abundance.

Bulletin of the Seismological Society of America 98, 2133–

2148.doi:10.1785/0120060143.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 103

Cinti, F.R., Faenza, L., Marzocchi, W., Montone, P., 2004.Probability map of the

next M5.5 earthquakes in Italy.Geochemistry, Geophysics, Geosystems

5.doi:10.1029/2004GC000724 Q11003.

Cochran, E.S., Vidale, J.E., Tanaka, S., 2004. Earth tides can trigger shallow thrust

fault earthquakes. Science 306, 1164–1166.

Console, R., Murru, M., 2001.A simple and testable model for earthquake

clustering. Journal of Geophysical Research 106, 8,699–8,711.

Console, R., Murru, M., Lombardi, A.M., 2003.Refining earthquake clustering

models.Journal of Geophysical Research 108, 2468.doi:10.1029/2002JB002130.

Console, R., Murru, M., Catalli, F., 2006a.Physical and stochastic models of

earthquake clustering. Tectonophysics 417, 141–153.

Console, R., Rhoades, D.A., Murru, M., Evison, F.F., Papadimitriou, E.E., Karakostas,

V.G., 2006b. Comparative performance of timeinvariant, long-range and short-range

forecasting models on the earthquake catalogue of Greece.Journal of Geophysical

Research 111, B09304.doi:10.1029/2005JB004113.

Console, R., Murru, M., Catalli, F., Falcone, G., 2007. Clustering model constrained

by the rate-and-state constitutive law: comparison with a purely stochastic ETAS

model. Seismological Research Letters 78, 49–56.

Console, R., Murru, M., Falcone, G., 2010. Probability gains of an epidemic-type

aftershock sequence model in retrospective forecasting of M≥5 earthquakes in Italy.

Journal of Seismology 14, 9–26. doi:10.1007/s10950-009-9161-3.

Cox, D.R., 1972.Regression models and life tables with discussion. Journal of the

Royal Statistical Society, Series B 34, 187–220.

Crampin, S., Gao, Y., 2010. Earthquakes can be stress-forecast. Geophysical

Journal International 180, 1124–1127. doi:10.1111/j.1365-246X.2009.04475.x.

CSEP, d. www.cseptesting.org.

Davison, F., Scholz, C.H., 1985. Frequency-moment distribution of earthquakes in

the Aleutian Arc: a test of the characteristic earthquake model. Bulletin of the

Seismological Society of America 75, 1349–1362.

Deng, J.S., Sykes, L.R., 1996. Triggering of 1812 Santa Barbara earthquake by a

great San Andreas shock: implications for future hazards in southern California.

Geophysical Research Letters 23, 1155–1158.

Di Giovambattista, R., Tyupkin, Y.S., 2000. Spatial and temporal distribution of the

seismicity before the Umbria-Marche September 26, 1997 earthquakes. Journal of

Seismology 4, 589–598.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 104

Di Giovambattista, R., Tyupkin, Y.S., 2004. Seismicity patterns before the M=5.8

2002, Palermo Italy earthquake: seismic quiescence and accelerating seismicity.

Tectonophysics 384, 243–255.

Dieterich, J., 1994. A constitutive law for rate of earthquake production and its

application to earthquake clustering.Journal of Geophysical Research 99, 2601–2618.

Dieterich, J.H., Cayol, V., Okubo, P., 2002. The use of earthquake rate changes as a

stress meter at Kilauea volcano. Nature 408, 457–460.

Dodge, D.A., Beroza, G.C., Ellsworth, W.L., 1996. Detailed observations of

California foreshock sequences: implications for the earthquake initiation process.

Journal of Geophysical Research 101, 22,371–22,392.

DubesR. C. (1993). Handbook of Pattern Recognition and Computer Vision -

Cluster Analysis and Related Issues. World Scientific Publishing Co.

Ebel, J.E., Chambers, D.W., Kafka, A.L., Baglivo, J.A., 2007. Non-Poissonian

earthquake clustering and the hidden Markov model as bases for earthquake

forecasting in California. Seismological Research Letters 78, 57–65.

Ellsworth, W.I., Cole, A.T., 1997. A test of the characteristic earthquake hypothesis

for the San Andreas Fault in central California.Seismological Research Letters 68, 298.

Ellsworth, W.L., Lindh, A.G., Prescott, W.H., Herd, D.J., 1981. The 1906 San

Francisco Earthquake and the seismic cycle. In: Simpson, D.W., Richards, P.G. (Eds.),

Earthquake Prediction: An Internation Review. Maurice Ewing Ser., vol. 44.AGU,

Washington, D.C.

Eneva,M., Ben-Zion, Y., 1997. Techniques and parameters to analyze seismicity

patterns associated with large earthquakes. Journal of Geophysical Research 102,

17,785–17,795.

Evison, F.F., 1977. The precursory earthquake swarm. Physics of the Earth and

Planetary Interiors 15, 19–23.

Evison, F.F., Rhoades, D.A., 1997. The precursory earthquake swarm in New

Zealand: hypothesis tests II. New Zealand Journal of Geology and Geophysics 40, 537–

547.

Evison, F.F., Rhoades, D.A., 1999. The precursory earthquake swarm and the

inferred precursory quarm. New Zealand Journal of Geology and Geophysics 42, 229–

236.

Evison, F.F., Rhoades, D.A., 2001. Model of long-term seismogenesis.Annali di

Geofisica 44, 81–93.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 105

Evison, F.F., Rhoades, D.A., 2002. Precursory scale increase and long-term

seismogenesis in California and Northern Mexico. Annals of Geophysics 45, 479–495.

Evison, F.F., Rhoades, D.A., 2004. Demarcation and scaling of long-term

seismogenesis. Pure and Applied Geophysics 161, 21–45.

Faenza, L., 2005. Analysis of the spatio-temporal distribution of large earthquakes,

Ph. D. Thesis, Università degli Studi di Bologna, Alma Mater Studiorum, Bologna, Italy

available at: http://hdl.handle.net/2122/.

Faenza, L., Marzocchi, W., 2010. The Proportional Hazard Model as applied to the

CSEP forcasting area in Italy. Annals of Geophysics 53.doi:10.4401/ag-4759.

Faenza, L., Pierdominici, S., 2007.Statistical occurrence analysis and spatio-

temporal distribution of earthquakes in the Apennines Italy. Tectonophysics 439, 13–

31.

Faenza, L., Marzocchi, W., Boschi, E., 2003. A nonparametric hazard model to

characterize the spatio-temporal occurrence of large earthquakes; an application to

the Italian catalogue.Geophysical Journal International 155, 521. doi:10.1046/j.1365-

246X.2003.02068.x.

Faenza, L., Marzocchi, W., Lombardi, A.M., Console, R., 2004.Some insights into

the time clustering of large earthquakes in Italy. Annals of Geophysics 47, 1635–1640.

Faenza, L., Marzocchi, W., Serretti, P., Boschi, E., 2008. On the spatio-temporal

distribution of M70.+ worldwide seismicity. Tectonophysics 449, 97–104.

Faenza, L., Hainzl, S., Scherbaum, F., 2009.Statistical analysis of the central-Europe

seismicity. Tectonophysics 470, 195–204.

Falcone, G., Console, R.,Murru,M., 2010. Short-term and long-term earthquake

occurrence models for Italy: ETES, ERS and LTST. Annals of Geophysics

53.doi:10.4401/ag-4760.

Fayyad, U. et al. (1996). Advanced in Knowledge Discovery and Data Mining, MIT

Press, MA.

Fayyad U. M., Piatetski-Shapiro G., and Smith P. (1996).From data mining to

knowledge discovery.AAAI-MIT Press.

Fedotov, S.A., 1968. On the seismic cycle, feasibility of quantitative seismic zoning

and long-term seismic prediction.Seismic Zoning of the USSR, Nauka, Moscow, 121–

150 in Russian. English translation: Israel Program for Scientific Translations,

Jerusalem, 1976.

Feng, Y.D., Chi, X.B., Wang, W., Chen, J., Yin, X.C., 2008. Fast computing for LURR

of earthquake prediction. Pure and Applied Geophysics 165, 749–759.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 106

Field, E.H., 2007. Overview of the Working Group for the Development of Regional

Earthquake Likelihood Models (RELM). Seismological Research Letters 78, 7–16.

Frankel, A., 1995. Mapping seismic hazard in the central and eastern United

States. Seismological Research Letters 66, 8–21.

Frankel, A., Mueller, C., Barnard, T., Perkins, D., Leyendecker, E.V., Dickman, N.,

Hanson, S., Hopper, M., 1996. National seismic-hazard maps; documentation June

1996: U.S. Geological Survey Open-File Report 96–532, 110 pp.

Frankel, A., Mueller, C., Barnard, T., Perkins, D., Leyendecker, E.V., Dickman, N.,

Hanson, S., Hopper, M., 1997. Seismic hazard maps for Califonia, Nevada and Western

Arizona/Utah. USGS Open-File Report 97–130.

Frankel, A.D., Petersen, M.D., Mueller, C.S., Haller, K.M., Wheeler, R.L.,

Leyendecker, E.V., Wesson, R.L., Harmsen, S.C., Cramer, C.H., Perkins, D.M., Rukstales,

K.S., 2002. Documentation for the 2002 update of the national seismic hazard

maps.U.S. Geol. Surv.Open-File Rept. OFR-02-420, 33 pp.

Frohlich, C., 1987. Aftershocks and temporal clustering of deep earthquakes.

Journal of Geophysical Research 92, 13,944–13,956.

Frohlich, C., Davis, S., 1993. Teleseismic b-values: Or, much ado about 1.0. Journal

of Geophysical Research 98, 631–644.

Gardner, J.K., Knopoff, L., 1974. Is the sequence of earthquakes in southern

California with aftershocks removed Poissonian? Bulletin of the Seismological Society

of America 64, 1363–1367.

Geller, R.J., Jackson, D.D., Kagan, Y.Y., Mulargia, F., 1997. Enhanced: earthquakes

cannot be predicted. Science 275, 49–70.

Gentili, S., 2010.Distribution of Seismicity Before the larger earthquakes in Italy in

the time interval 1994–2004. Pure and Applied Geophysics 167, 933–958.

Gerstenberger, M.C., Rhoades, D.A., 2010. New Zealand Earthquake Forecast

Testing Centre. Pure and Applied Geophysics 167, 877–892.

Gerstenberger, M., Wiemer, S., Giardini, D., 2001.A systematic test of the

hypothesis that the b value varies with depth in California. Geophysical Research

Letters 28, 57–60.

Gerstenberger, M.C., Wiemer, S., Jones, L.M., Reasenberg, P.A., 2005. Real-time

forecasts of tomorrow's earthquakes in California. Nature 435, 328–331.

Gerstenberger, M.C., Jones, L.M., Wiemer, S., 2007. Short-term aftershock

probabilities: case studies in California. Seismological Research Letters 78, 66–77.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 107

Gibowitz, S. J. (1974). Frequency–magnitude depth and time relations for

earthquakes in Island Arc: North Island, New Zealand. Tectonophysics, 3(3), 283–297.

Gomberg, J., 1996. Stress/strain changes and triggered seismicity following the

Mw 7.3 Landers, California, earthquake. Journal of Geophysical Research 101, 751–

764.

Grant, L.B., Shearer, P.M., 2004. Activity of the offshore Newport–Inglewood Rose

Canyon Fault Zone, coastal southern California, from relocated microseismicity.

Bulletin of the Seismological Society of America 94, 747–752.

Grant, L.B., Sieh, K., 1994. Paleoseismic evidence of clustered earthquakes on the

San Andreas fault in the Carrizo Plain, California. Journal of Geophysical Research 99,

6819–6841.

Greenhough, J., Bell, A., Main, I.G., 2009. Comment on “Relationship between

accelerating seismicity and quiescence, two precursors to large earthquakes” by

Arnaud Mignan and Rita Di Giovambattista. Geophysical Research Letters 36, L17303.

doi:10.1029/2009GL039846.

Gross, S.J., Kisslinger, C., 1994. Tests of models of aftershock rate decay. Bulletin

of the Seismological Society of America 84, 1571–1579.

Gross, S., Rundle, J.B., 1998. A systematic test of time-to-failure analysis.

Geophysical Journal International 133, 57–64.

Grossman R. L., HornikM. F., and MeyerG.(2004). Data mining standards

initiatives. Communications of ACM, 45(8):59–61.

Guha S., Rastogi R., and Shim K. (1998). Cure: an efficient data clusteringmethod

for very large databases. ACM-SIGMOD Proceedings of the InternationalConference

Management of Data, pages 73–84.

Gulia, L., Wiemer, S., 2010. The influence of tectonic regimes on the earthquake

size distribution: a case study for Italy. Geophysical Research Letters 37,

L10305.doi:10.1029/2010GL043066.

Gulia, L., Wiemer, S., Schorlemmer, D., 2010. Asperity-based earthquake likelihood

models for Italy. Annals of Geophysics 53.doi:10.4401/ag-4843.

Gutenberg, B., & Richter, C. F. (1942).Earthquake magnitude, intensity, energy and

acceleration. Bulletin of the Seismological Society of America, 2(3), 163–191.

Gutenberg, B., Richter, C.F., 1944. Frequency of earthquakes in California. Bulletin

of the Seismological Society of America 34, 185–188.

Gutenberg, B., & Richter, C. F. (1954).Seismicity of the Earth.Princeton University.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 108

Haberman, R.E., 1981. Precursory seismicity patterns: stalking the mature seismic

gap. In: Simpson, D.W., Richards, P.G. (Eds.), Earthquake Prediction: An International

Review. Maurice Ewing Ser., vol. 4. AGU, Washington, D.C, pp. 29–42.

Hardebeck, J.L., Nazareth, J.J., Hauksson, E., 1998. The static stress change

triggering model: constraints from two southern California aftershock sequences.

Journal of Geophysical Research 103, 24,427–24,437.

Hardebeck, J.L., Felzer, K.R., Michael, A.J., 2008. Improved tests reveal that the

accelerating moment release hypothesis is statistically insignificant. Journal of

Geophysical Research 113, B08310.doi:10.1029/2007JB005410.

Harte, D., Li, D.-F., Vreede, M., Vere-Jones, D., 2003.Quantifying the M8 prediction

algorithm: reduction to a single critical variable and stability results. New Zealand

Journal of Geology and Geophysics 46, 141–152.

Harte, D., Li, D.-F., Vreede, M., Vere-Jones, D., Wang, Q., 2007.Quantifying the M8

algorithm: model, forecast, and evaluation. New Zealand Journal of Geology and

Geophysics 50, 117–130.

Helmstetter, A., Sornette, D., 2002. Subcritical and supercritical regimes in

epidemic models of earthquake aftershocks.Journal of Geophysical Research

107.doi:10.1029/2001JB001580.

Helmstetter, A., Sornette, D., 2003a. Importance of direct and indirect triggered

seismicity in the ETAS model of seismicity.Geophysical Research Letters 30,

1576.doi:10.1029/2003GL017670.

Helmstetter, A., Sornette, D., 2003b. Predictability in the epidemic-type aftershock

sequence model of interacting triggered seismicity. Journal of Geophysical Research

108, 2482.doi:10.1029/2003JB002485.

Helmstetter, A., Kagan, Y.Y., Jackson, D.D., 2005. Importance of small earthquakes

for stress transfers and earthquake triggering.Journal of Geophysical Research

110.doi:10.1029/2004JB003286.

Helmstetter, A., Kagan, Y.Y., Jackson, D.D., 2006. Comparison of short-term and

timeindependent earthquake forecast models for southern California. Bulletin of the

Seismological Society of America 96, 90–106.

Helmstetter, A., Kagan, Y.Y., Jackson, D.D., 2007. High-resolution time-

independent grid-based forecast for M≥5 earthquakes in California.Seismological

Research Letters 78, 78–86.

Hernández Orallo J., (2004). Introducción a la minería de datos. Prentice-Hall.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 109

Holliday, J.R., Nanjo, K.Z., Tiampo, K.F., Rundle, J.B., Turcotte, D.L., 2005.

Earthquake forecasting and its verification.Nonlinear Processes in Geophysics

12.doi:10.5194/npg-12-965-2005.

Holliday, J.R., Rundle, J.B., Tiampo, K.F., Klein, W., Donnellan, A., 2006a.

Systematic procedural and sensitivity analysis of the Pattern Informatics method for

forecasting large MN5 earthquake events in southern California. Pure and Applied

Geophysics doi:10.1007/s00024-006-0131-1.

Holliday, J.R., Rundle, J.B., Tiampo, K.F., Turcotte, D., 2006b. Using earthquake

intensities to forecast earthquake occurrence times.Nonlinear Processes inGeophysics

13, 585–593.

Holliday, J.R., Rundle, J.B., Tiampo, Turcotte, D., Klein, W., Tiampo, K.F., Donnellan,

A., 2006c. Space-time clustering and correlations ofmajor earthquakes.Physical Review

Letters 97 238501.

Holliday, J.R., Chen, C.-C., Tiampo, K.F., Rundle, J.B., Turcotte, D.L., Donnellan, A.,

2007. A RELM earthquake forecast based on Pattern Informatics. Seismological

Research Letters 78, 87–93.

Huang, Q., 2004. Seismicity changes associated with the 2000 earthquake swarm

in the Izu Island region. Journal of Asian Earth Sciences 26, 509–517.

Huang, Q., 2006. Search for reliable precursors: a case study of the seismic

quiescence of the 2000 western Tottori prefecture earthquake. Journal of Geophysical

Research 111, B04301.doi:10.1029/2005JB003982.

Huang, Q., Nagao, T., 2002.Seismic quiescence before the 2000 M=7.3 Tottori

earthquake.Geophysical Research Letters 29.doi:10.1029/2001GL013835 1578.

Huang, Q., Sobolev, G., 2001. Seismic quiescence prior to the 2000 M=6.8 Nemuro

Peninsula earthquake. Proceedings of the Japan Academy 77B, 1–6.

Huang, Q., Sobolev, G.A., Nagao, T., 2001. Characteristics of the seismic

quiescence and activation patterns before the M=7.2 Kobe earthquake, January 17,

1995.Tectonophysics 337, 99–116.

Huang, Q., Öncel, A.O., Sobolev, G.A., 2002. Precursory seismicity changes

associated with the Mw=7.4 1999 August 17 Izmit Turkey earthquake. Geophysical

Journal International 151, 235–242.

Hurukawa, N., Maung, P.M., 2011. Two seismic gaps on the Sagaing Fault,

Myanmar, derived from relocation of historical earthquakes since 1918. Geophysical

Research Letters 38, L01310. doi:10.1029/2010GL046099.

Imoto, M., 1991.Changes in the magnitude frequency b-value prior to large M-

greaterthan-or-equal-to-6.0 earthquakes in Japan. Tectonophysics 193, 311–325.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 110

Imoto, M., Hurukawa, N., Ogata, Y., 1990.Three-dimensional spatial variations of

bvalue in the Kanto area, Japan. Zishin 43, 321–326.

Ishibe, T., Shimazaki, K., 2009.Seismicity in source regions of large intraplate

earthquakes around Japan and the characteristic earthquake model. Earth, Planets and

Space 61, 1041–1052.

Ishimoto, M., & Iida, K. (1939). Observations sur les seismes enregistres par le

microsismographe construit derniereme. Bulletin Earthquake Research Institute, 17,

443–478.

Jackson, D.D., Kagan, Y.Y., 1999. Testable earthquake forecasts for 1999.

Seismological Research Letters 70, 393–403.

Jackson, D.D., Kagan, Y.Y., 2006. The 2004 Parkfield earthquake, the 1985

prediction, and characteristic earthquakes: lessons for the future. Bulletin of the

Seismological Society of America 96.doi:10.1785/012005082.

Jaumé, S.C., Sykes, L.R., 1999.Evolving towards a critical point: a review of

accelerating seismic moment/energy release prior to large and great earthquakes.

Pure and Applied Geophysics 155, 279–306.

Jiang, C., Wu, Z., 2006. Benioff strain release before earthquakes in China:

accelerating or not? Pure and Applied Geophysics 163, 1,965–1,976.

Jiang, C.S., Wu, Z.L., 2008. Retrospective forecasting test of a statistical physics

model for earthquakes in Sichuan–Yunnan region. Science in China, Series D: Earth

Sciences 51, 1401–1410.

Jiang, C., Wu, Z., 2010a. PI Forecast for the Sichuan-Yunnan Region: retrospective

test after the May 12, 2008, Wenchuan earthquake. Pure and Applied Geophysics

167.doi:10.1007/s00024-010-0070-8.

Jiang, C., Wu, Z., 2010b. Seismic moment release before the May 12, 2008,

Wenchuan earthquake in Sichuan of southwest China. Concurrency and Computation

22, 1784–1795.

Jiang, H., Hou, H., Zhou, H., Zhou, C., 2004. Region–time–length algorithm and its

application to the study of intermediate-short-term earthquake precursor in North

China.Acta Seismologica Sinica 17, 164–176.

Jiménez, A., Tiampo, K.F., Levin, S., Posadas, A., 2005. Testing the persistence in

earthquake catalogs: the Iberian Peninsula. Europhysics Letters.

doi:10.1209/epl/i2005-10383-8.

Jiménez, A., Posadas, A., Tiampo, K.F., 2008. Describing seismic pattern dynamics

by means of Ising cellular automata, nonlinear time series analysis in the

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 111

geosciences.Lecture Notes in Earth Sciences. Springer, Berlin, pp. 273–290.

doi:10.1007/978-3- 540-78938-3_12.

Jones, L.M., Hauksson, E., 1997. The seismic cycle in southern California: precursor

or response? Geophysical Research Letters 24, 469–472.

Jones, L.M., Molnar, P., 1979. Some characteristics of foreshocks and their

possible relationship to earthquake prediction and premonitory slip on faults.Journal

of Geophysical Research 84.

Jordan, T.H., 2006. Earthquake predictability, brick by brick. Seismological

Research Letters 77, 3–6.

Jordan, T.H., Jones, L.M., 2010. Operational earthquake forecasting: some

thoughts on why and how. Seismological Research Letters 81.

Kafka, A., 2002. Statistical analysis of the hypothesis that seismicity delineates

areas where future large earthquakes are likely to occur in the central and eastern

United States.Seismological Research Letters 73, 990–1001.

Kagan, Y.Y., 1997. Are earthquakes predictable? Geophysical Journal International

131, 505–525.

Kagan, Y.Y., 2002. Aftershock zone scaling.Bulletin of the Seismological Society

ofAmerica 922, 641–655.doi:10.1785/0120010172.

Kagan, Y., 2005. Combined Provisional Southern California Earthquake

Catalog.http://scec.ess.ucla.edu/~ykagan/relm_index.html 2005.

Kagan, Y.Y., Jackson, D.D., 1994. Long-term probabilistic forecasting of

earthquakes. Journal of Geophysical Research 99, 13,685–13,700.

Kagan, Y.Y., Jackson, D.D., 1995. New seismic gap hypothesis: five years after.

Journal of Geophysical Research 100, 3943–3959.

Kagan, Y.Y., Jackson, D.D., 2000. Probabilistic forecasting of earthquakes.

Geophysical Journal International 143, 438–453.

Kagan, Y.Y., Jackson, D.D., Rong, Y.F., 2006. A new catalog of southern California

earthquakes, 1800–2005. Seismological Research Letters 77, 30–38.

Kagan, Y.Y., Jackson, D.D., Rong, Y.F., 2007. A testable five-year forecast of

moderate and large earthquakes in southern California based on smooth seismicity.

Seismological Research Letters 78, 94–98.

Kalbeisch, J.D., Prentice, R.L., 1980. The Statistical Analysis of Failure Time

Data.New- York, 336 pp.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 112

Kanamori, H., 1981. The nature of seismicity patterns before large earthquakes.

Earthquake Prediction: An International Review, AGU Monograph. AGU, Washington,

D.C, pp. 1–19.

Kanamori, H., Anderson, D.L., 1975. Theoretical basis of some empirical relation in

seismology. Bulletin of the Seismological Society of America 65, 1073–1096.

Kaufman L. and RousseeuwP. J., (1990). Finding groups in Data: an Introduction to

Cluster Analysis. Wiley.

Keilis-Borok, V.I., Kossobokov, V.G., 1990.Times of increased probability of strong

earthquakes M≥7.5 diagnoes by algorithm M8 in Japan and adjacent territories.

Journal of Geophysical Research 95, 12,413–12,422.

Keilis-Borok, V.I., Knopoff, L., Kossobokov, V., Rotvain, I., 1990.Intermediate-term

prediction in advance of the Loma-Prieta earthquake. Geophysical Research Letters 17,

1461–1464.

Keilis-Borok, V.I., Shebalin, P.N., Zaliapin, I.V., 2002. Premonitory patterns of

seismicity months before a large earthquake: five case histories in Southern California.

PNAS 99, 16,562–16,567.

Kelleher, J.A., 1972. Rupture zones of large South American earthquakes and some

predictions. Journal of Geophysical Research 77, 2087–2103.

Kelleher, J.A., Sykes, L.R., Oliver, J., 1973. Possible criteria for predicting

earthquake locations and their applications to major plate boundaries of the Pacific

andCaribbean.Journal of Geophysical Research 78, 2547–2585.

Kenneth, P., Burnhaman, K.P., Anderson, D.R., 2002. Model Selection and

Multimodel Inference: A Practical Information–Theoretic Approach. Springer, New

York.

Kilburn, C.R.J., Voight, B., 1998. Slow rock fracture as eruption precursor at

Soufriere Hills volcano, Montserrat. Geophysical Research Letters 25, 3665–3668.

King, G.C.P., Bowman, D.D., 2003. The evolution of regional seismicity between

large earthquakes.Journal of Geophysical Research 108.doi:10.1029/2001JB000783.

King, G.C.P., Stein, R.S., Lin, J., 1994. Static stress changes and the triggering of

earthquakes. Bulletin of the Seismological Society of America 84, 935–953.

Kopanakis I. and Theodoulidis B. (2003).Visual data mining modeling techniquesfor

the visualization of mining outcomes. Journal of Visual Languagesand Computing,

14(6):543–589.

Kossobokov, V.G., 2006a. Quantitative earthquake prediction on global and

regional scales. In: Ismail-Zadosh (Ed.), Recent Geodynamics, Geortsk and Sustainable

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 113

Development in the Black Sea to Caspian Sea Region: Proceedings of the International

Workshop, pp. 32–50.

Kossobokov, V.G., 2006b. Testing earthquake prediction methods: the West Pacific

short-term forecast of earthquakes with magnitude MwHRV≥5.8. Tectonophysics 413,

25–31.

Kossobokov,V.G.,Romashkova, L.L., Keilis-Borok,V.I., 1999.

Testingearthquakepredictionalgorithms: statistically significant advance prediction of

the largest earthquakes in the Circum-Pacific, 1992–1997. Physics of the Earth and

Planetary Interiors 111, 187–196.

Kossobokov, V.G., Keilis-Borok, V.I., Turcotte, D.L., Malamud, B.D., 2000.

Implications of a statistical physics approach for earthquake hazard assessment and

forecasting. Pure and Applied Geophysics 157, 2323–2349.

Kossobokov,V.G., Romashkova, L.L., Panza,G.F., Peresan, A., 2002. Stabilizing

intermediateterm middle-range earthquake predictions.Journal of Seismology and

Earthquake Engineering 8, 11–19.

Kovacs, P., 2010. Reducing the risk of earthquake damage in Canada: lessons from

Haiti and Chile.ICLR Research Paper Series, 49.

Latchman, J.L., Morgan, F.D.O., Aspinall, W.P., 2008. Temporal changes in the

cumulative piecewise gradient of a variant of the Gutenberg–Richter relationship, and

the imminence of extreme events. Earth-Science Reviews 87, 94–112.

Latoussakis, J., Kossobokov, V.G., 1990. Intermediate term earthquake prediction

in the area of Greece—application of the algorithm M8. Pure and Applied Geophysics

134, 261–282.

Lee, K., & Yang, W. S. (2006). Historical seismicity of Korea. Bulletin of the

Seismological Society of America, 71(3), 846–855.

Lienkaemper, J.J., 2001. 1857 slip on the San Andreas fault southeast of Cholame,

California. Bulletin of the Seismological Society of America 91, 1659–1672.

Lienkaemper, J.J., Prescott, W.H., 1989. Historic surface slip along the San Andreas

Fault near Parkfield, California. Journal of Geophysical Research 94, 17,647–17,670.

Lockner, D.A., Beeler, N.M., 1999.Premonitory slip and tidal triggering of

earthquakes.Journal of Geophysical Research 104.doi:10.1029/1999JB900205.

Lolli, B., Gasperini, P., 2003. Aftershock hazard in Italy Part I: Estimation of time–

magnitude distribution model parameters and computation of probabilities of

occurrence. Journal of Seismology 7, 235–257.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 114

Lombardi, A.M., Marzocchi, W., 2010a. A double-branching model applied to

longterm forecasting of Italian seismicity (ML≥5.0) within the CSEP project. Annals of

Geophysics 53.doi:10.4401/ag-4762.

Lombardi, A.M., Marzocchi, W., 2010b. The ETAS model for daily forecasting of

Italian seismicity in the CSEP experiment. Annals of Geophysics 53.doi:10.4401/ag-

4848.

Ma, L., Zhuang, J., 2001. Relative quiescence within the Jiashi swarm in Xinjiang,

China: an application of the ETAS point process model. Journal of Applied Probability

38, 213–221.

Macqueen, J. B. (1968). Some methods for classification and analysis of

multivariate observations.In Proceedings of the 5th Berkeley symposium on

mathematical statistics and probability (pp. 281–297).

MacQueen J. (1995). The em algorithm for graphical association models

withmissing data. Computational Statistics and Data Analysis, 19:191–201.

Madahizadeh, R., Allamehzadeh, M., 2009.Prediction of aftershocks distribution

using artificial neural networks and its application on the May 12, 2008 Sichuan

earthquake.Journal of Seismology and Earthquake Engineering 12 (n. 10).

Main, I., 1999a. Applicability of the time-to-failure analysis to accelerated strain

before earthquakes and volcanic eruptions. Geophysical Journal International 139, F1–

F6.

Main, I. (moderator), 1999b. Is the reliable prediction of individual earthquakes a

realistic scientific goal?, Debate in Nature,

www.nature.com/nature/debates/earthquake/equake_frameset.html.

Martinez-Alvarez, F., Troncoso, A., Morales-Esteban, A., Riquelme, J. C. 2011. Computational intelligence techniques for predicting earthquakes. Lecture Notes in Artificial Intelligence, Vol. 6679, No. 2, pages 287-294.

Martínez-Álvarez, F., Troncoso A., Riquelme, J. C., Aguilar-Ruiz, J. S.. 2011. Lecture

Notes in Artificial Intelligence, Vol. 6679, No. 2, pages 287-294.

Martínez-Álvarez, F., Troncoso, A., Riquelme, J. M., Riquelme, J. C., 2007.

Discovering Patterns in Electricity Price Using Clustering Techniques. Proceedings of

the International Conference on Renewable Energies and Power Quality, 67-68.

Marzocchi, W., Lombardi, A.M., 2008. A double-branching model for earthquake

occurrence.Journal of Geophysical Research 113, B08317.doi:10.1029/2007JB005472.

Marzocchi, W., Sandri, L., Boschi, E., 2003. On the validation of earthquake-

forecasting models: the case of pattern recognition algorithms. Bulletin of the

Seismological Society of America 935, 1994–2004.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 115

Matsu'ura, T., Kase, Y., 2010.Late Quaternary and coseismic crustal deformation

across the focal area of the 2008 Iwate–Miyagi Nairiku earthquake. Tectonophysics

487,13–21.

Mao J. and Jain A.(1996). A self-organizing network for hyperellipsoidal clustering

(hec). IEEE Transactions on Neural Networks, 7:381–389.

McCann, W.R., Nishenko, S.P., Sykes, L.R., Krause, J., 1979. Seismic gaps and plate

tectonics: seismic potential for major boundaries. Pure and Applied Geophysics 117,

1082–1147.

Mignan, A., 2008. The Non-Critical Precursory Accelerating Seismicity Theory (NC

PAST) and limits of the power-law fit methodology. Tectonophysics 452.

doi:10.1016/j.tecto.2008.02.010.

Mignan, A., 2011. Retrospective on the Accelerating Seismic Release (ASR)

hypothesis: controversy and new horizons. Tectonophysics 505, 1–16.

Mignan, A., Di Giovambattista, R., 2008. Relationship between accelerating

seismicity and quiescence, two precursors to large earthquakes. Geophysical Research

Letters 35, L15306. doi:10.1029/2008GL035024.

Mignan, A., Tiampo, K.F., 2010. Testing the Pattern Informatics index on synthetic

seismicity catalogues based on the Non-Critical PAST. Tectonophysics 483, 255–

268.doi:10.1016/j.tecto.2009.10.023.

Mignan, A., Bowman, D.D., King, G.C.P., 2006a. An observational test of the origin

of Accelerating Moment Release before large earthquakes.Journal of Geophysical

Research 111, B11304.doi:10.1029/2006JB004374.

Mignan, A., King,G.C.P., Bowman,D.D., Lacassin, R.,Dmowska, R., 2006b. Seismic

activity in the Sumatra–Java region prior to the December 26, 2004Mw=9.0–9.3 and

March 28, 2005 Mw=8.7 earthquakes. Earth and Planetary Science Letters 244, 639–

654.

Mignan, A., King, G.C.P., Bowman, D.D., 2007. A mathematical formulation of

accelerating moment release based on the Stress Accumulation model. Journal of

Geophysical Research 112, B07308. doi:10.1029/2006JB004671.

Mogi, K., 1967. Regional variations in magnitude–frequency relation of

earthquakes. Bulletin of the Earthquake Research Institute, Tokyo University 5, 67–86.

Mogi, K., 1969. Some features of recent seismic activity in and near Japan 2,

Activity before and after large earthquakes. Bulletin of the Earthquake Research

Institute, Tokyo University 47, 395–417.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 116

Mora, P., Wang, Y.C., Yin, C., Place, D., Yin, X.C., 2002. Simulation of the load–

unload response ratio and critical sensitivity in the lattice solid model. Pure and

Applied Geophysics 159, 2525–2536.

Morales-Esteban, A., Martinez-Alvarez, F., Troncoso, A., Justlo, J.L., Rubio-

Escudero, C., 2010.Pattern recognition to forecast seismic time series. Expert Systems

with Applications 37, 8333–8342.

Morales-Esteban, A., Martinez-Alvarez, F., Reyes, J., 2013. Earthquake prediction in seismogenic areas of the Iberian Peninsula based on computational intelligence. Tectonophysics 593, 121-134.

Murru, M., Console, R., Falcone, G., 2009. Real time earthquake forecasting in

Italy. Tectonophysics 470, 214–223.

Nanjo, K.Z., 2010. Earthquake forecast models for Italy based on the RI algorithm.

Annals of Geophysics 53, 3.doi:10.4401/ag-4810.

Nanjo, K., Nagahama, H., Satomura, M., 1998. Rates of aftershock decay and the

fractal structure of active fault systems. Tectonophysics 287, 173–186.

Nanjo, K.Z., Holliday, J.R., Chen, C.-C., Rundle, J.B., Turcotte, D.L.,

2006a.Application of a modified pattern informatics method to forecasting the

locations of future large earthquakes in the central Japan. Tectonophysics 424, 351–

366. doi:10.1016/j.tecto.2006.03.043.

Nanjo, K.Z., Rundle, J.B., Holliday, J.R., Turcotte, D.L., 2006b. Pattern informatics

and its application for optimal forecasting of large earthquakes in Japan.Pure and

Applied Geophysics 163.doi:10.1007/s00024-006-0130-2.

Naylor, M., Greenhough, J., McCloskey, J., Bell, A.F., Main, I.G., 2009. Statistical

evaluation of characteristic earthquakes in the frequency–magnitude distributions of

Sumatra and other subduction zone regions. Geophysical Research Letters 36, L20303.

doi:10.1029/2009GL040460.

Nishenko, S.P., 1989. Circum-Pacific seismic potential 1989–1999. Pure and

Applied Geophysics 135, 169–259.

Nishenko, S.P., McCann, W.R., 1981. Seismic potential for the world's major plate

boundaries: 1981. In: Simpson, D.W., Richards, P.G. (Eds.), Earthquake Prediction, An

International Review. Maurice Ewing Series, 4. American Geophysical Union,

Washington, D.C., pp. 20–28.

Nuannin, P., Kulhanek, O., & Persson, L. (2005).Spatial and temporal b-value

anomalies preceding the devastating off coast of NW Sumatra earthquake of

December 26, 2004.Geophysical Research Letters, 32.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 117

Ogata, Y., 1983. Estimation of the Parameters in the Modified Omori Formula for

Aftershock Frequencies by the Maximum Likelihood Procedure. Journal of Physics of

the Earth 31, 115–124.

Ogata, Y., 1985a. Statistical models for earthquake occurrences and residual

analysis for point processes. Res. Memo. Tech. Rep., 288. Inst. of Stat. Math, Tokyo.

Ogata, Y., 1985b. Statistical models for earthquake occurrences and residual

analysis for point processes. Res. Memo. Tech. Rep., 288. Inst. of Stat. Math, Tokyo.

Ogata, Y., 1987. Long-term dependence of earthquake occurrences and statistical

models for standard seismic activity in Japanese. In: Saito, M. (Ed.), Mathematical

Seismology, vol. II. Inst. of Stat. Math, Tokyo, pp. 115–125.

Ogata, Y., 1988. Statistical models for earthquake occurrence and residual analysis

for point process. Journal of the American Statistical Association 83, 9–27.

Ogata, Y., 1989. Statistical model for standard seismicity and detection of

anomalies by residual analysis. Tectonophysics 169, 159–174.

Ogata, Y., 1998. Space-time point-process models for earthquake occurrences.

Annals of the Institute of Statistical Mathematics 50, 379–402.

Ogata, Y., 1999. Seismicity analysis through point-process modeling: a review.

Pure and Applied Geophysics 155, 471–507.

Ogata, Y., 2005. Synchronous seismicity changes in and around the northern Japan

preceding the 2003 Tokachi-oki earthquake of M8.0. Journal of Geophysical Research

110.doi:10.1029/2004JB003323 B08305.

Ogata, Y., Katsura, K., 1993. Analysis of temporal and spatial heterogeneity of

magnitude frequency distribution inferred from earthquake catalogues. Geophysical

Journal International 113, 727–738.

Ogata, Y., Zhuang, J., 2006. Space-time ETAS models and an improved extension.

Tectonophysics 413, 13–23.

Pace, B., Peruzza, L., Visini, F., 2010. LASSCI2009.2: layered earthquake rupture

forecast model for central Italy, submitted to the CSEP project. Annals of Geophysics

53.doi:10.4401/ag-4847.

Pacheco, J.F., Scholz, C.H., Sykes, L.R., 1992. Changes in frequency–size

relationship from small to large earthquakes. Nature 3557, 1–73.

Page, M.T., Carlson, J.M., 2006. Methodologies for earthquake hazard assessment:

model uncertainty and the WGCEP-2002 forecast. Bulletin of the Seismological Society

of America 96, 1624.doi:10.1785/0120050195.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 118

Pailoplee, S., Sugiyama, Y., Charusiri, P., 2009. Deterministic and probabilistic

seismic hazard analyses in Thailand and adjacent areas using active fault data. Earth,

Planets and Space 61, 1313–1325.

Pantosti, D., Pucci, S., Palyvos, N., DeMartini, P.N., D'Addezio, G., Collins, P.E.F.,

Zabci, C., 2008. Paleoearthquakes of the Duzce fault North Anatolian Fault Zone:

insights for large surface faulting earthquake recurrence. Journal of Geophysical

Research 113.doi:10.1029/2006JB004679.

Papazachos, B.C., Karakaisis, G.F., Papazachos, C.B., Scordilis, E.M., 2007.

Evaluation of the results for an intermediate-term prediction of the 8 January 2006

Mw=6.9 Cythera earthquake in the Southwestern Aegean. Bulletin of the Seismological

Society of America 97.doi:10.1785/0120060075.

Parsons, T., 2004.Recalculated probability of M≥7 earthquakes beneath the Sea of

Marmara, Turkey.Journal of Geophysical Research 109,

B05304.doi:10.1029/2003JB002667.

Parsons, T., Geist, E.L., 2009. Is there a basis for preferring characteristic

earthquakes over a Gutenberg–Richter distribution in probabilistic earthquake

forecasting? Bulletin of the Seismological Society of America 99, 2012–2019.

doi:10.1785/0120080069.

Peng, K.Y., Yin, X.C., Zhang, L.P., 2006. A statistical investigation of the earthquake

predictions using LURR.Pure and Applied Geophysics 163, 2353–2362.

Peresan, A., Kossobokov, V., Romashkova, L., Panza, G.F., 2005. Intermediate-term

middle-range earthquake predictions in Italy: a review. Earth-Science Reviews 69, 97–

132.

Peruzza, L., Pace, B., Cavallini, F., 2010. Error propagation in time-dependent

probability of occurrence for characteristic earthquakes in Italy.Journal of Seismology

14.doi:10.1007/s10950-008-9131-1.

Petersen, M.D., Cao, T., Campbell, K.W., Frankel, A.D., 2007. Time-independent

and time-dependent seismic hazard assessment for the state of California: uniform

California earthquake rupture forecast model. Seismological Research Letters 78.

doi:10.1785/gssrl.78.1.99.

Petersen, M.D., Frankel, A.D., Harmsen, S.C., Mueller, C.S., Haller, K.M., Wheeler,

R.L., Wesson, R.L., Zeng, Y., Boyd, O.S., Perkins, D.M., Luco, N., Field, E.H., Wills, C.J.,

Rukstales, K.S., 2008. Documentation for the 2008 Update of the United States

National Seismic Hazard Maps, U.S. Geological Survey Open-File Report 1128, 61 pp.

Piatetski-Shapiro G., Frawley W. J., and Matheus C. J. (1991).Knowledge discovery

in databases: an overview. AAAI-MIT Press.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 119

Pollitz, F.F., Sacks, I.S., 1997. The 1995 Kobe, Japan, earthquake: a long-delayed

aftershock of the offshore 1944 Tonankai and 1946 Nankaido earthquakes. Bulletin of

the Seismological Society of America 87, 1–10.

Pondrelli, S., Salimbeni, S., Morelli, A., Ekström, G., Olivieri, M., Boschi, E., 2010.

Seismic moment tensors of the April 2009, L'Aquila central Italy, earthquake sequence.

Geophysical Journal International 180, 238–242.

Press, F., Allen, C., 1995. Patterns of seismic release in the southern California

region.Journal of Geophysical Research 100, 6421–6430.

R Development Core Team, 2006. R: a language and environment for statistical

computing. Vienna, R Foundation for Statistical Computing. www.R-project.org 2006.

Ranalli, G. (1969). A statistical study of aftershock sequences. Annali di Geofisica,

22, 359–397.

Reasenberg, P.A., Jones, L.M., 1989. Earthquake hazard after a mainshock in

California. Science 243, 1,173–1,176.

Reasenberg, P.A., Jones, L.M., 1994. Earthquake aftershocks: update. Science 265,

1,251–1,252.

Reid, H.F., 1910. The mechanics of the earthquake, the California earthquake of

April 18, 1906.Report State Investig.Comm., vol. 2. Carnegie Inst., Washington.

Reyes, J., Morales-Esteban, A., Martínez-Álvarez, F., 2013. Neural networks to predict earthquakes in Chile. Applied Soft Computing. 13(2), 1314-1328.

Rhoades, D.A., 2007. Application of the EEPAS model to forecasting earthquakes

of moderate magnitude in Southern California. Seismological Research Letters 78, 110–

115.

Rhoades, D.A., 2010. Lessons and questions from thirty years of testing the

precursory swarm hypothesis. Pure and Applied Geophysics 167, 629–644.

Rhoades, D.A., Evison, F.F., 2004. Long-range earthquake forecasting with every

earthquake a precursor according to scale. Pure and Applied Geophysics 161, 47–71.

Rhoades, D.A., Evison, F.F., 2005. Test of the EEPAS forecasting model on the

Japan earthquake catalogue. Pure and Applied Geophysics 162, 1271–1290.

Rhoades, D.A., Gerstenberger, M.C., 2009. Mixture models for improved short-

term earthquake forecasting. Bulletin of the Seismological Society of America 99,636–

646. doi:10.1785/0120080063.

Richter, C.F., 1958. Elementary Seismology. Freeman, San Francisco.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 120

Rikitake, T., 1976.Earthquake Prediction. Elsevier, Amsterdam, Netherlands, pp. 7–

26.

Robinson, R., 2000. A test of the precursory accelerating moment release model

on some recent New Zealand earthquakes. Geophysical Journal International 140,

568–576.

Rockwell, T.K., Young, J., Seitz, G., Meltzner, A., Verdugo, D., Khatib, F., Ragona, D.,

Altangerel, O., West, J., 2003. 3,000 years of groundrupturing earthquakes in the Anza

Seismic Gap, San Jacinto fault, southern California: time to shake it up? Seismological

Research Letters 74, 236.

Romachkova, L.L., Kossobokov, V.G., Panza, G.F., Costa, G., 1998. Intermediate-

term predictions of earthquakes in Italy: algorithm M8. Pure and Applied Geophysics

152, 37–55. doi:10.1007/s000240050140.

Romanowicz, B., Rundle, J.B., 1993. On scaling relations for large earthquakes.

Bulletin of the Seismological Society of America 83, 1294–1297.

Romeo, R.W., 2005. Earthquake hazard in Italy, 2001–2030.Natural Hazards 36,

383.doi:10.1007/s11069-005-1939-1.

Rong, D., Li, Y., 2007. Estimation of characteristic parameters in region–time–

length algorithm and its application.Acta Seismologica Sinica 20, 265–272.

Rong, Y.-F., Jackson, D.D., Kagan, Y.Y., 2003.Seismic gaps and earthquakes. Journal

of Geophysical Research 108 (2471), 1–14. doi:10.1029/2002JB002334 ESE-6.

Ruina, A., 1983. Slip instability and state variable friction laws. Journal of

Geophysical Research 88, 10,359–10,370.

Rundle, J.B., 1989. Derivation of the complete Gutenberg–Richter magnitude–

frequency relation using the principle of scale invariance. Journal of Geophysical

Research 94, 12,337–12,342.

Rundle, J.B., Tiampo, K.F., Klein, W., Sá Martins, J., 2002. Self-organization in leaky

threshold systems: the influence of near mean field dynamics& its implications for

earthquakes, neurobiology and forecasting. PNAS 99 (Suppl. 1), 2463.

Rundle, J.B., Turcotte, D.L., Shcherbakov, R., Klein, W., Sammis, C., 2003. Statistical

physics approach to understanding the multiscale dynamics of earthquake fault

systems. Review of Geophysics 41, 1019.

Rydelek, P.A., Sacks, I.S., Scarpa, R., 1992. On tidal triggering of earthquakes at

Campi Flegrei, Italy. Geophysical Journal International 109, 125–137.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 121

Saichev, A., Sornette, D., 2006. Renormalization of branching models of triggered

seismicity from total to observable seismicity. European Physical Journal B: Condensed

Matter and Complex Systems 51, 443–459. doi:10.1140/epjb/e2006-00242-6.

Saleur, H., Sammis, C.G., Sornette, D., 1995. Discrete scale invariance, complex

fractal dimensions, and log-periodic fluctuations in seismicity. Journal of Geophysical

Research 17,661–17,677.

Sammonds, P.R., Meredith, P.G., Main, I.G., 1992. Role of pore fluids in the

generation of seismic precursors to shear fracture. Nature 359, 228–230.

Savage, J.C., 1991. Criticism of some forecasts of the National Earthquake

Prediction Evaluation Council. Bulletin of the Seismological Society of America 81, 862–

881.

Savage, J.C., 1992. The uncertainty in earthquake conditional probabilities.

Geophysical Research Letters 19, 709–712.

Scholz, C.H., 1968. The frequency–magnitude relation ofmicrofracturing in rock

and its relation to earthquakes. Bulletin of the Seismological Society of America 58,

399–415.

Scholz, C.H., 2002. The Mechanics of Earthquakes and Faulting, 2nd edition.

Cambridge Univ. Press, Cambridge.

Schorlemmer, D., Gerstenberger, M.C., 2007. RELM Testing Center. Seismological

Research Letters 78, 30–36.

Schorlemmer,D.,Wiemer,S.,Wyss,M., 2004a.EarthquakestatisticsatParkfield: 1.

Stationarity of b values.Journal of Geophysical Research

109.doi:10.1029/2004JB003234 B12307.

Schorlemmer, D., Wiemer, S., Wyss, M., Jackson, D.D., 2004b. Earthquake

statistics at Parkfield: 2. Probabilistic forecasting and testing. Journal of Geophysical

Research,

Solid Earth 109.doi:10.1029/2004JB003235 B12308.

Schorlemmer, D., Wiemer, S., Wyss, M., 2005.Variations in earthquake-size

distribution across different stress regimes. Nature 437, 539–542.

doi:10.1038/nature04094.

Schorlemmer, D., Gerstenberger, M.C., Wiemer, S., Jackson, D.D., Rhoades, D.A.,

2007. Earthquake likelihood model testing. Seismological Research Letters 78, 17–29.

Schwartz, D.P., Coppersmith, K.J., 1984. Fault behavior and characteristic

earthquakes: examples from Wasatch and San Andreas fault zones. Journal of

Geophysical Research 89, 5681–5698.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 122

Schwartz, D.P., Coppersmith, K.J., Swan III, F.H., Somerville, P., Savage, W.U.,

1981.Characteristic earthquakes on intraplate normal faults.Earthquake Notes 52, 71.

Shcherbakov, R., Turcotte, D.L., Rundle, J.B., Tiampo, K.F., Holliday, J.R., 2010.

Forecasting the locations of future large earthquakes: an analysis and verification. Pure

and Applied Geophysics 167, 743–749.

Shearer, R., 1985.Minutes of the National Earthquake Prediction Evaluation

Council NEPEC.U.S. Geol. Surv. Open-File Rept. 85–507.

Shi, Y., & Bolt, B. A. (1982).The standard error of the magnitude–frequency b-

value. Bulletin of the Seismological Society of America, 72(5), 1677–1687.

Sieh, K.E., 1984. Lateral offsets and revised dates of large earthquakes at Pallett

Creek, California. Journal of Geophysical Research 89, 7641–7670.

Sieh, K., Stuiver, M., Brillinger, D., 1989. A more precise chronology of earthquakes

produced by the San Andreas fault in southern California. Journal of Geophysical

Research 94, 603–623.

Smalley, R.F., Turcotte, D.L., Solla, S.A., 1985. A renormalization group approach to

the stick–slip behavior of faults. Journal of Geophysical Research 90, 1894–1900.

Smith, S.W., Sammis, C.G., 2004. Revisiting the tidal activation of seismicity with a

damage mechanics and friction point of view.Pure and Applied Geophysics 161, 2393–

2404.doi:10.1007/s00024-004-2571-9.

Sobolev, G.A., 2001. The examples of earthquake preparation in Kamchartka and

Japan. Tectonophysics 338, 269–289.

Sobolev, G.A., 2007. On applicability of the RTL prognostic algorithms and energy

estimation to Sakhalin seismicity. Journal of Volcanology and Seismology 1, 198–211.

Sobolev, G.A., Tyupkin, Y.S., 1997. Low-seismicity precursors of large earthquakes

in Kamchatka.Volcanology and seismology 18, 433–446.

Sobolev, G.A., Tyupkin, Y.S., 1999. Precursory phases, seismicity precursors, and

earthquake prediction in Kamchatka. Volc.Seismol. 20, 615–627.

Sobolev, G.A., Huang, Q., Nagao, T., 2002. Phases of earthquake's preparation and

by chance test of seismic quiescence anomaly. Journal of Geodynamics 33, 413–424.

Sri Lakshmi, S., Tiwari, R.K., 2009. Model dissection from earthquake time series: a

comparative analysis using modern non-linear forecasting and artificial neuralnetwork

approache. Computers & Geosciences 35, 191–204.

Stein, R.S., 1999. The role of stress transfer in earthquake occurrence. Nature 402,

605–609.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 123

Stein, S., Newman, A., 2004. Characteristic and uncharacteristic earthquakes as

possible artifacts: application to the New Madrid and Wabash seismic zones.

Seismological Research Letters 75, 173–187.

Stein, S., Friedrich, A., Newman, A., 2005. Dependence of possible characteristic

earthquakes on spatial sampling: illustration for the Wasatch seismic zone, Utah.

Seismological Research Letters 76, 432–436.

Stirling,M.W.,Wesnousky, S.G., 1997. Do historical rates of seismicity in southern

California require the occurrence of earthquakemagnitudes greater thanwould be

predicted from fault length? Bulletin of the Seismological Society of America 87, 1662–

1666.

Stirling, M.W., Wesnousky, S.G., Shimazaki, K., 1996. Fault trace complexity,

cumulative slip, and the shape of the magnitude frequency distribution for strike-slip

faults: a global survey. Geophysical Journal International 124, 833–868.

Stirling, M.W., McVerry, G.H., Berryman, K.R., 2002a. A new seismic hazard model

for New Zealand. Bulletin of the Seismological Society of America 92, 1878–1903.

Stirling, M., Rhoades, D., Berryman, K., 2002b. Comparison of earthquake scaling

relations derived from data of the instrumental and preinstrumental era. Bulletin of

the Seismological Society of America 92, 812–830.

Swan, F.H., Schwartz, D.P., Cluff, L.S., 1980. Recurrence of moderate to large

magnitude earthquakes produced by surface faulting on the Wasatch fault zone, Utah.

Bulletin of the Seismological Society of America 70, 1431–1462.

Sykes, L.R., 1971. Aftershock zones of great earthquakes, seismicity gaps, and

earthquake prediction for Alaska and the Aleutians. Journal of Geophysical Research

76, 8021–8041.

Sykes, L.R., Jaumé, S.C., 1990.Seismic activity on neighbouring faults as a long-

term precursor to large earthquakes in the San Francisco Bay area. Nature 348, 595–

599.

Sykes, L.R., Nishenko, S.P., 1984. Probabilities of occurrence of large plate

rupturing earthquakes for the San Andreas, San Jacinto, and Imperial faults, California,

1983–2003.Journal of Geophysical Research 89, 5905–5927.

Tanaka, S., 2010. Tidal triggering of earthquakes precursory to the recent Sumatra

megathrust earthquakes of 26 December 2004 Mw 9.0, 28 March 2005 Mw 8.6,and 12

September 2007 Mw 8.5. Geophysical Research Letters 37.doi:10.1029/2009GL041581

L02301.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 124

Tanaka, S., Ohtake, M., Sato, H., 2002.Evidence for tidal triggering of earthquakes

as revealed from statistical analysis of global data.Journal of Geophysical Research

107.doi:10.1029/2001JB001577.

Thatcher, W., 1989. Earthquake recurrence and risk assessment in circum-Pacific

seismic gaps. Nature 341, 432–434.

Thirumalai, D., Mountain, R.D., 1993. Activated dynamics, loss of ergodicity, and

transport in supercooled liquids. Physical Review E: Statistical, Nonlinear, and Soft

Matter Physics 47, 479–489.

Thirumalai, D., Mountain, R.D., Kirkpatrick, T.R., 1989. Ergodic behavior in

supercooled liquids and in glasses. Physical Review A 39, 3563–3574.

Tiampo, K.F., Rundle, J.B., McGinnis, S., Gross, S., Klein, W., 2002. Mean-field

threshold systems and phase dynamics: an application to earthquake fault systems.

Eur. Phys. Lett. 60, 481–487.

Tiampo, K.F., Rundle, J.B., Klein, W., 2006a. Premonitory seismicity changes prior

to the Parkfield and Coalinga earthquakes in southern California. Tectonophysics 413,

77–86.

Tiampo, K.F., Rundle, Klein,W., 2006b. Stress shadows determined from a phase

dynamicalmeasure of historic seismicity. Pure and Applied

Geophysics.doi:10.1007/200024-006-0134-y.

Tiampo, K.F., Rundle, J.B., Klein, W., Holliday, J., 2006c. Forecasting rupture

dimension using the pattern informatics technique. Tectonophysics 424, 367–376.

Tiampo, K.F., Bowman, D.D., Colella, H., Rundle, J.B., 2008. The Stress

Accumulation Method and the Pattern Informatics Index: complementary approaches

to earthquake forecasting. Pure and Applied Geophysics 165, 693–709.

doi:10.1007/s00024-008-0329-5.

Tiampo, K.F., Klein, W., Li, H.-C., Mignan, A., Toya, Y., Rundle, J.B., Chen, C.-C.,

2010. Ergodicity and earthquake catalogs: forecast testing and resulting implications.

Pure and Applied Geophysics 167.doi:10.1007/s00024-010-0076-2.

Toda, S., Stein, R.S., Sagiya, T., 2002. Evidence from the AD 2000 Izu islands

earthquake swarm that stressing rate governs seismicity. Nature 419, 58–61.

Toya, Y., Tiampo, K.F., Rundle, J.B., Chen, C., Li, H., Klein, W., 2009. Pattern

Informatics approach to earthquake forecasting in 3D. Concurrency and

Computation.doi:10.1002/ cpe.1531.

Trotta, J.E., Tullis, T.E., 2006. An endependent assessment of the load/unload

response ratio (LURR) proposed method of earthquake prediction. Pure and Applied

Geophysics 163, 2375–2387.doi:10.1007/s00024-006-0128-9.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 125

Turcotte, D.L., 1991. Earthquake prediction. Annual Review of Earth and Planetary

Sciences 19, 263–281.

Turcotte, D.L., 1997. Fractals and Chaos in Geology and Geophysics. Cambridge

University Press, Cambridge.

Turcotte, D.L., Newman, W.I., Shcherbakov, R., 2003. Micro and macroscopic

models of rock fracture. Geophysical Journal International 152, 718–728.

Utsu, T. (1965). A method for determining the value of b in a formula log n = a-bm

showing the magnitude–frequency relation for earthquakes. Geophysical bulletin of

Hokkaido University, 13, 99–103.

Utsu, T., Ogata, Y., Matsu'ura, R.S., 1995.The centenary of the Omori formula for a

decay law of aftershock activity. Journal of Physics of the Earth 43, 1–33.

Vázquez-Prada, M., González, Á., Gómez, J.B., Pacheco, A.F., 2003. Forecasting

characteristic earthquakes in a minimalist model. Nonlinear Processes in Geophysics

10, 565–571.

Vere-Jones, D., 1995. Forecasting earthquakes and earthquake risk. International

Journal of Forecasting 11, 503–538.

Vere-Jones, D., 2006. The development of statistical seismology: a personal

experience. Tectonophysics 413, 5–12.

Vidale, J.E., Agnew, D.C., Johnston, M.J.S., Oppenheimer, D.H., 1998. Absence of

earthquake correlation with earth tides: an indication of high preseismic fault stress

rate. Journal of Geophysical Research 103, 24,567–24,572.

Voight, B., 1989. A relation to describe rate-dependent material failure. Science

243, 200–203.

Wallace, R.E., 1970. Earthquake recurrence intervals on the San Andreas

Fault.Geological Society of America Bulletin 81, 2875–2890.

Wang, Y.C., Yin, C., Mora, P., Yin, X.C., Peng, K.Y., 2004a. Spatio-temporal scanning

and statistical test of the Accelerating Moment Release (AMR) model using Australian

earthquake data.Pure and Applied Geophysics 161, 2281–2293.

Wang, Y.C., Mora, P., Yin, C., Place, D., 2004b. Statistical tests of load–unload

response ratio signals by lattice solid model: Implication to tidal triggering and

earthquake prediction. Pure and Applied Geophysics 161, 1829–1839.

Ward, S.N., 2007. Methods for evaluating earthquake potential and likelihood in

and around California. Seismological Research Letters 78, 121–133.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 126

Weldon, R., Scharer, K., Fumal, T., Biasi, G., 2004. Wrightwood and the earthquake

cycle: what a long recurrence record tells us about how faults work. GSA Today 14, 4–

10.

Werner, M.J., Sornette, D., 2008. Magnitude uncertainties impact seismic rate

estimates, forecasts and predictability experiments. Journal of Geophysical

Research113.doi:10.1029/2007JB005427.

Werner, M.J., Helmstetter, A., Jackson, D.D., Kagan, Y.Y., Wiermer, S.,

2010.Adaptively smoothed seismicity earthquake forecasts for Italy.Annals of

Geophysics 53.doi:10.4401/ag-4839.

Wesnousky, S., 1994. The Gutenberg–Richter or characteristic earthquake

distribution, which is it? Bulletin of the Seismological Society of America 84,1940–

1959.

Westerhaus, M., Wyss, M., Yilmaz, R., Zschau, J., 2002. Correlatingvariations of b

values and crustal deformations during the 1990s may have pinpointed the rupture

initiation of the Mw=7.4 Izmit earthquake of 1999 August 17. Geophysical Journal

International 148, 139–152.

Wiemer, S., Benoit, J., 1996.Mapping the b-value anomaly at 100 km depth in the

Alaska and New Zealand subduction zones. Geophysical Research Letters 23,1557–

1560.

Wiemer, S., Katsumata, K., 1999.Spatial variability of seismicity parameters in

aftershock zones. Journal of Geophysical Research 104, 13,135–13,151.

Wiemer, S., Schorlemmer, D., 2007. ALM: an asperity-based likelihood model for

California. Seismological Research Letters 78, 134–140.

Wiemer, S., Wyss, M., 1994. Seismic quiescence before the Landers M=7.5 and Big

Bear M=6.5 1992 earthquakes. Bulletin of the Seismological Society of America 84,

900–916.

Wiemer, S., Wyss, M., 1997. Mapping the frequency–magnitude distribution in

asperities: an improved technique to calculate recurrence times? Journal of

Geophysical Research 102, 15,115–15,128.

Wiemer, S., Wyss, M., 2002.Mapping spatial variability of the frequency–

magnitude distribution of earthquakes. Advances in Geophysics 45, 259–302.

Wiemer, S., McNutt, S.R., Wyss, M., 1998.Temporal and three-dimensional spatial

analysis of the frequency–magnitude distribution. Geophysical Journal International

134, 409–421.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 127

Wiemer, S., Gerstenberger, M., Hauksson, E., 2002. Properties of the aftershock

sequence of the 1999 Mw 7.1 Hector Mine earthquake: implications for aftershock

hazard. Bulletin of the Seismological Society of America 92, 1227–1240.

Wiemer, S., Giardini, D., Fäh, D., Deichmann, N., Sellami, S., 2009. Probabilistic

seismic hazard assessment of Switzerland: best estimates and uncertainties. Journal of

Seismology 13, 449–478. doi:10.1007/s10950-008-9138-7.

Witten H. and Frank E. (2005). Data mining: Practical Machine Learning Toolsand

Techniques. Morgan Kaufmann Publishers.

Woessner, J., Christophersen, A., Zechar, J.D., Monelli, D., 2010. Building self-

consistent, short-term earthquake probability (STEP) models: improved strategies and

calibration procedures. Annals of Geophysics 53.doi:10.4401/ag-4812.

Working Group on California Earthquake Probabilities WG02, 2002. Earthquake

probabilities in the San Francisco Bay region: 2002–2031. U.S. Geol. Surv.Circular 1189.

Working Group on California Earthquake Probabilities WGCEP, 1988. Probabilities

of large earthquakes occurring in California on the San Andreas fault. U.S. Geol.

Surv.Open-File Rept. 62 pp.

Working Group on California Earthquake Probabilities WGCEP, 1990.Probabilities

of large earthquakes in the San Francisco Bay Region, California, U.S. Geol. Surv.Circ.

51 pp.

Working Group on California Earthquake Probabilities WGCEP, 1995. Seismic

hazards in Southern California: probable earthquakes, 1994 to 2024. Bulletin of the

Seismological Society of America 85, 379–439.

Working Group on California Earthquake Probabilities WGCEP, 2003. Earthquake

probabilities in the San Francisco Bay region: 2002 to 2031. U.S. Geol. Surv. Open-File

Rept. 03–214.

Working Group on California Earthquake Probabilities WGCEP, 2008. The uniform

California earthquake rupture forecast, version 2 UCERF 2, U.S. Geol. Surv. Open-File

Rept. 2007–1437.California Geological Survey Special Report, 203

http://pubs.usgs.gov/of/2007/1437/.104 pp.

Wu, Y.-H., Chen, C.-C., Rundle, J.B., 2008a.Detecting precursory earthquake

migration patterns using the pattern informatics method.Geophysical Research Letters

35.doi:10.1029/2008gl035215.

Wu, Y.-H., Chen, C.-C., Rundle, J.B., 2008b. Precursory seismic activation of the

Pingtung Taiwan offshore doublet earthquakes on 26 December 2006: a Pattern

Informatics analysis. Terrestrial Atmospheric and Oceanic Sciences 19, 743–749.

doi:10.3319/tao.2008.19.6.743pt.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 128

Wyss, M., 1997. Cannot earthquakes be predicted? Science 278, 487–490.

Wyss, M., Wiemer, S., 2000. Change in the probability for earthquakes in Southern

California due to the Landers magnitude 7.3 earthquake. Science 290, 1,334–1,338.

Wyss, M., Shimaziki, K., Urabe, T., 1996.Quantitative mapping of a precursory

seismic quiescence to the Izu-Oshima 1990 M6.5 earthquake, Japan. Geophysical

Journal International 127, 735–743.

Wyss, M., Sobolev, G., Clippard, J.D., 2004.Seismic quiescence precursors to two

M7 earthquakes on Sakhalin Island, measured by two methods. Earth, Planets and

Space 56, 725–740.

Yamashita, T., Knopoff, L., 1989.A model of foreshock occurrence. Geophysical

Journal International 96, 389–399.

Yin, C., Mora, P., 2006. Stress reorientation and LURR: implication for earthquake

prediction using LURR. Pure and Applied Geophysics 163, 2363–2373.

Yin, X.C., Chen, X.Z., Song, Z.P., Yin, C., 1995. A new approach to earthquake

prediction: the Load/Unload Response Ratio (LURR) theory. Pure and Applied

Geophysics 145, 701–715.

Yin, X.C., Wang, Y., Peng, K., Bai, Y., Wang, H., Yin, X.F., 2000. Development of a

new approach to earthquake prediction: load/Unload Response Ratio (LURR) theory.

Pure and Applied Geophysics 157, 2365–2383.

Yin, X.C., Zhang, L.P., Zhang, H.H., Yin, C., Wang, Y.C., Zhang, Y.X., Peng, K.Y., Wang,

H.T., Song, Z.P., Yu, H.Z., Zhaung, J.C., 2006. LURR's twenty years and its perspective.

Pure and Applied Geophysics 163, 2317–2341.

Yin, C., Xing, H.L., Mora, P., Xu, H.H., 2008a.Earthquake trend around Sumatra

indicated by a new implementation of LURR method. Pure and Applied Geophysics

165, 723–736.

Yin, X.C., Zhang, L.P., Zhang, Y.X., Peng, K.Y., Wang, H.T., Song, Z.P., Yu, H.Z.,

Zhang, H.H.,

Yin, C., Wang, Y.C., 2008b. The newest developments of load–unload response

ratio (LURR). Pure and Applied Geophysics 165, 711–722.

Yin, X.C., Zhang, L.P., Zhang, Y.X., Peng, K.Y., Wang, H.T., Song, Z.P., Zhang, X.T.,

Yuan, S.A., 2010. The peak point of LURR and its significance. Concurrency and

Computation 22, 1549–1558.

Yu, H.Z., Zhu, Q.Y., 2010. A probabilistic approach for earthquake potential

evaluation based on the load/unload response ratio method. Concurrency and

Computation 22, 1520–1533.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 129

Yu, H.Z., Shen, Z.K., Wan, Y.G., Zhu, Q.Y., Yin, X.C., 2006. Increasing critical

sensitivity of the Load/Unload Response Ratio before large earthquakes with identified

stress acclumulation pattern. Tectonophysics 428, 87–94.

Zechar, J.D., Jordan, T.H., 2008. Testing alarm-based earthquake predictions.

Geophysical Journal International 172, 715–724. doi:10.1111/j.1365-

246X.2007.03676.x.

Zechar, J.D., Jordan, T.H., 2010. Simple smoothed seismicity earthquake forecasts

for Italy. Annals of Geophysics 53.doi:10.4401/ag-4845.

Zechar, J.D., Zhuang, J., 2010. Risk and return: evaluating Reverse Tracing of

Precursors earthquake predictions. Geophysical Journal International 182, 1319–1326.

doi:10.1111/ j.1365-246X.2010.04666.x.

Zechar, J.D., Schorlemmer, D., Liukis, M., Yu, J., Euchner, F., Maechling, P., Jordan,

J., 2010.The collaboratory for the study of earthquake predictability perspective on

computational earthquake science. Concurrency and Computation 22, 1836–1847.

Zhang T, Ramakrishnan R., and Livny M. (1996). Birch: an efficient data clustering

method for very large databases. ACM-SIGMOD Proceedings of the International

Conference Management of Data, pages 103–114.

Zhang, Y.X., Yin, X.C., Peng, K.Y., 2004. Spatial and temporal variation of LURR and

its implication for the tendency of earthquake occurrence in Southern California.Pure

and Applied Geophysics 161, 2359–2367.

Zhang, Y.X., Yin, X.C., Peng, K.Y., Wang, H.T., Zheng, J.C., Wu, Y.J., Zhang, L.P.,

2006. LURRand the San SimeonM6.5 earthquake in 2003 and the seismic tendency in

CA. Pureand Applied Geophysics 163, 2343–2351.

Zhang, X.T., Zhang, Y.X., Yin, X.C., 2009. Study on the earthquake potential regions

in north and northeast China by Pattern Informatics method. Proceeding of the 2009

2nd International Conference on Biomedical Engineering and Informatics, v. 1–4, pp.

2266–2270.

Zhang, L.P., Yin,X.C., Liang, N.G., 2010. Relationship between load/unload

response ratio and damage variable and its application. Concurrency and Computation

22, 1534–1548.

Zhuang, J., Ogata, Y., Vere-Jones, D., 2004. Analyzing earthquake clustering

features by using stochastic reconstruction.Journal of Geophysical Research 109,

B05301.doi:10.1029/2003JB002879.

Zhuang, J., Chang, C., Ogata, Y., Chen, Y., 2005. A study on the background and

clustering seismicity in the Taiwan region by using point process models.Journal of

Geophysical Research 110.doi:10.1029/2004JB003157 B05S18.

Trabajo fin de máster: Desarrollo de una metodología para el reconocimiento de patrones precursores de grandes terremotos

Autor: Ricardo – León Talavera Llames

Página 130

Zollo, A., Marzocchi, W., Capuano, P., Lomaz, A., & Iannaccone, G. (2002). Space

and time behavior of seismic activity at Mt. Vesuvius volcano, outhern Italy. Bulletin of

the Seismological Society of America, 92(2), 625–640.