110
Provincia di Mantova Settore Ambiente – Ecologia Dipartimento di Fisica Università di Bologna CONVENZIONE TRA PROVINCIA DI MANTOVA E DIPARTIMENTO DI FISICA DELL’UNIVERSITA' DI BOLOGNA Programma Provinciale di Previsione e Prevenzione di Protezione Civile per il Rischio Sismico PARTE I: IMPOSTAZIONE SCIENTIFICA DEL PROBLEMA

Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

Embed Size (px)

Citation preview

Page 1: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

Provincia di Mantova

Settore Ambiente – Ecologia

Dipartimento di Fisica Università di Bologna

CONVENZIONE TRA PROVINCIA DI MANTOVA

E

DIPARTIMENTO DI FISICA DELL’UNIVERSITA' DI BOLOGNA

Programma Provinciale di Previsione e Prevenzione di Protezione Civile per il Rischio Sismico

PARTE I: IMPOSTAZIONE SCIENTIFICA DEL PROBLEMA

Page 2: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

2

1 Introduzione __________________________________________________________________ 4

2. Il processo sismico_____________________________________________________________ 7

2.1 La generazione del terremoto________________________________________________________ 7 2.1.1 Il terremoto: concetti base ________________________________________________________________ 7 2.1.2 La genesi dei terremoti___________________________________________________________________ 9 2.1.3 Le onde sismiche ______________________________________________________________________ 11 2.1.4 L’energia del terremoto _________________________________________________________________ 15

2.2 Lo scuotimento sismico ____________________________________________________________ 17 2.2.1 Aspetti generali _______________________________________________________________________ 17

2.2.1.1 Le interazioni suolo-strutture _________________________________________________________ 17 2.2.1.2 La misura strumentale dello scuotimento sismico__________________________________________ 19 2.2.1.3 La caratterizzazione quantitativa dello scuotimento sismico _________________________________ 21 2.2.1.4 Le scale d’intensità macrosismica______________________________________________________ 23

2.2.2 I processi fisici che controllano lo scuotimento sismico ________________________________________ 27 2.2.2.1 La sorgente sismica _________________________________________________________________ 27

2.2.2.1.1 Gli effetti direzionali ____________________________________________________________ 28 2.2.2.2 Gli effetti di propagazione____________________________________________________________ 30

2.2.2.2.1 L’attenuazione _________________________________________________________________ 30 2.2.2.2.2 La legge di attenuazione__________________________________________________________ 31

2.2.2.3 Gli effetti di sito ___________________________________________________________________ 32 2.2.2.3.1 Gli effetti di risonanza ___________________________________________________________ 32 2.2.2.3.2 Gli effetti di bordo in valli alluvionali _______________________________________________ 34 2.2.2.3.3 Gli effetti della topografia ________________________________________________________ 35 2.2.2.3.4 La liquefazione sismica del terreno _________________________________________________ 36

3. La Pericolosità sismica ________________________________________________________ 41

3.1 Introduzione: le metodologie per la stima della pericolosità sismica _______________________ 41

3.2 L’approccio deterministico_________________________________________________________ 41 3.2.1 La caratterizzazione delle strutture sismogenetiche ____________________________________________ 42

3.2.1.1 Le Strutture localizzate ______________________________________________________________ 43 3.2.1.2 La zona sismogenetica ______________________________________________________________ 44

3.2.2 Il terremoto massimo atteso ______________________________________________________________ 45 3.2.3 La determinazione dello scuotimento sismico atteso ___________________________________________ 47

3.2.3.1 L’approccio teorico _________________________________________________________________ 48 3.2.3.2 L’approccio empirico _______________________________________________________________ 49 3.2.3.3 Gli approcci misti __________________________________________________________________ 51

3.2.4 I vantaggi ed i limiti dell’approccio deterministico ____________________________________________ 53

3.3 L’approccio probabilistico _________________________________________________________ 55 3.3.1 Aspetti generali _______________________________________________________________________ 55 3.3.2 La sismicità __________________________________________________________________________ 56

3.3.2.1 La sismicità strumentale _____________________________________________________________ 56 3.3.2.2 La sismicità storica _________________________________________________________________ 61

3.3.2.2.1 L’indagine macrosismica dei terremoti contemporanei __________________________________ 63 3.3.2.2.2 I dati sismici storici: problemi connessi all’interpretazione delle fonti documentarie ___________ 64 3.3.2.2.3 La parametrizzazione del terremoto su base macrosismica _______________________________ 66

3.3.3 I metodi di stima: elementi di analisi probabilistica di rischio sismico _____________________________ 70 3.3.3.1 Il metodo di Cornell ________________________________________________________________ 70

3.3.3.1.1 I limiti superiore ed inferiore di magnitudo ___________________________________________ 73 3.3.3.1.2 Lo spettro di risposta di pericolosità uniforme_________________________________________ 74

3.3.3.2 Il metodo di sito per la stima della pericolosità sismica _____________________________________ 75 3.3.3.2.1 La ricostruzione del catalogo sismico di sito __________________________________________ 76 3.3.3.2.2 La definizione della storia di sito sulla base dei risentimenti osservati ______________________ 77 3.3.3.2.3 La valutazione della pericolosità al sito e la stima di completezza del catalogo sismico_________ 80

3.3.4 I vantaggi ed i limiti degli approcci probabilistici di Cornell e di sito ______________________________ 83

Page 3: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

3

4. La pericolosità sismica: la Situazione Italiana _____________________________________ 85

4.1 La classificazione sismica __________________________________________________________ 85

4.2 La pericolosità sismica ____________________________________________________________ 88 4.2.1 La storia sismica_______________________________________________________________________ 90

4.2.1.1 I cataloghi sismici italiani ____________________________________________________________ 90 4.2.1.2 La carta delle massime intensità _______________________________________________________ 94

4.2.2 La zonazione sismogenetica del territorio nazionale ___________________________________________ 97 4.2.3 Le carte di pericolosità _________________________________________________________________ 100

Appendici ____________________________________________________________________ 105

Scala MCS (Mercalli - Cancani - Sieberg) di intensità del terremoto ________________________ 105

Simboli utilizzati ___________________________________________________________________ 108

Letture consigliate ed approfondimenti ________________________________________________ 109 Siti Internet ______________________________________________________________________________ 109

Page 4: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

4

1 Introduzione

La previsione dei terremoti, intesa come descrizione del dove e quando avverrà

il prossimo evento distruttivo, è impossibile allo stato attuale delle conoscenze.

Ciò che è invece possibile, a partire dalle conoscenze attualmente disponibili, è

formulare ipotesi plausibili sui valori attesi d’accelerazione del suolo, indotti

dagli eventi sismici futuri in un dato intervallo di tempo, e stimarne

l’attendibilità relativa. Queste valutazioni hanno un’importanza fondamentale

sia nella progettazione sia nella verifica della sicurezza di strutture abitative,

impianti industriali (fabbriche e dighe) o elementi infrastrutturali (ponti e strade)

i cui danni risultano potenzialmente pericolosi per la vita umana o per le diverse

attività produttive.

L’attendibilità delle stime è condizionata dagli attuali limiti conoscitivi posti

dalle diverse discipline che entrano in questo genere di studi. La convergenza

delle conoscenze di sismologi, geologi, ingegneri e storici è fondamentale negli

interventi sul patrimonio edilizio e sul territorio che esse apportano. Coordinare

tecniche di lavoro e soprattutto conciliare le impostazioni, talvolta contrastanti,

di specialisti appartenenti a discipline diverse è indispensabile.

In termini economici il Rischio sismico è definibile come la possibilità di

perdita di agibilità o di funzionalità degli edifici e delle strutture a causa di un

terremoto. Nella stima quantitativa del rischio sismico entrano tre fattori: la

Pericolosità Sismica, la Vulnerabilità e l’Esposizione.

La Pericolosità Sismica è la probabilità che, in un determinato intervallo di

tempo (detto tempo di esposizione), si verifichi un terremoto capace di causare

danni. La pericolosità sismica può alternativamente essere espressa come il

massimo scuotimento che è ragionevole attendersi al sito di interesse durante il

tempo di esposizione.

La Vulnerabilità rappresenta la predisposizione da parte di persone, beni o

attività a subire danni o modificazioni a causa del verificarsi di un terremoto.

Tali danni possono estendersi da una momentanea riduzione di efficienza ad una

totale irrecuperabilità. Essa si identifica con la resistenza strutturale alle

sollecitazioni sismiche.

Page 5: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

5

L'Esposizione tiene conto della dislocazione, consistenza, qualità e valore dei

beni e delle attività presenti sul territorio che possono essere influenzate

direttamente o indirettamente dall'evento sismico (insediamenti, edifici, attività

economico-produttive, infrastrutture, densità di popolazione).

Il processo di valutazione del rischio sismico può essere sintetizzato in uno

schema in cui vengono messi in evidenza i contributi dei singoli elementi che

intervengono nel processo di stima. Ogni elemento può essere rappresentato

attraverso delle mappe tematiche (carte di pericolosità, di vulnerabilità e di

esposizione) la cui correlazione porta alla valutazione del rischio sismico (carta

del rischio sismico).

Come si è accennato in precedenza, un’analisi di pericolosità sismica e del

rischio sismico connesso, è un operazione multidisciplinare. Infatti, conoscenze

geologiche, geofisiche, sismologiche concorrono nella definizione dei parametri

ingegneristici che è necessario modificare per mettere al riparo le strutture dagli

effetti devastanti di un terremoto. Questo primo interscambio di competenze non

è facile, in quanto non sempre sono note le rispettive procedure di lavoro, i

margini d’errore e l’attendibilità. L’altra interazione difficile è quella tra l’area

scientifica che abbraccia le precedenti categorie e l’area politico-legislativa. Non

si dimentichi che i risultati delle analisi di rischio devono essere poi tradotti in

interventi concreti tesi a ridurre, per quanto possibile, i rischi per la popolazione

e per il patrimonio pubblico e privato. Questi interventi devono essere supportati

da leggi e provvedimenti che li pongano in opera e li mantengano in essere.

L’efficacia dell’emanazione legislativa si può ottenere però solo con una corretta

comprensione e condivisione delle stime, proposte dagli esperti, da parte dei

legislatori. Qui i risultati non sono sempre ottimali in quanto i due “mondi” oltre

ad avere serie difficoltà a bilanciare risorse, costi e priorità, non sempre riescono

a conciliare i diversi punti di vista.

Nel presente documento verranno descritti i principali fenomeni fisici

responsabili dei terremoti. Si descriverà a cosa sono dovuti, dove si generano e

quali meccanismi li rendono così distruttivi, definendo cosa e quali sono le

sorgenti sismogenetiche. Si illustrerà come viene misurata l’energia rilasciata

dai terremoti e quali sono le modalità utilizzate per descriverne gli effetti.

Particolare attenzione verrà posta al modo in cui gli effetti dello scuotimento del

suolo variano da sito a sito, evidenziando l’esistenza di numerosi fenomeni che

Page 6: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

6

possono amplificare in modo catastrofico gli effetti locali di un sisma.

Inquadrata la fisica dei terremoti, si affronterà il problema della quantificazione

della pericolosità sismica dandone una definizione formale. Si descriveranno i

metodi maggiormente utilizzati nell’analisi di pericolosità sismica: l’approccio

deterministico e l’approccio probabilistico. Dell’approccio deterministico

saranno descritte le condizioni di applicabilità e di come queste ne limitano

l’utilizzo. Particolare attenzione sarà quindi riservata agli approcci probabilistici,

tra questi, al metodo proposto da Cornell, considerato standard. Saranno descritti

i suoi pregi e difetti e come questi ultimi possano essere in gran parte risolti

utilizzando un nuovo approccio sviluppato di recente.

Al lettore verranno così forniti gli strumenti necessari per comprendere e

valutare i risultati dell’analisi di pericolosità con particolare riferimento alla

situazione italiana.

Page 7: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

7

2. Il processo sismico

2.1 La generazione del terremoto

2.1.1 Il terremoto: concetti base

Cos’è un terremoto? In che modo può provocare danni ingenti? Come si

genera? Per rispondere a queste domande, tutt’altro che banali, è necessario

coinvolgere numerosi fenomeni fisici e geologici in grado di spiegare i

meccanismi di funzionamento e gli effetti di un sisma.

L’effetto principale di un terremoto, cioè lo scuotimento violento del suolo, è il

risultato della liberazione d’energia in seguito ad una rottura delle rocce delle

porzioni più superficiali della crosta terrestre. Sarà descritto in seguito dove e in

che modo si genera la frattura che propagandosi provoca effetti potenzialmente

disastrosi.

I terremoti non avvengono ovunque, ma solo in contesti geologici ben definiti,

dove le spinte tettoniche e cioè forze responsabili della creazione delle

montagne e dell’apertura degli oceani, sono maggiori o dove minore è la

resistenza dei materiali all’azione di queste forze. Tutte le rocce della crosta

terrestre sono poste sotto l’azione di torsioni e compressioni (sforzi) dipendenti

dall’orientazione delle spinte tettoniche. Entro i primi 30 Km (la crosta terrestre)

la roccia è ad una temperatura tale per cui, questa, in presenza di sforzi ridotti,

tende a deformarsi elasticamente accumulando energia elastica. Quando gli

sforzi superano una soglia critica, la roccia si frattura catastroficamente

liberando l’energia elastica accumulata nella fase di deformazione. La frattura,

detta faglia sismica, avviene lungo superfici approssimativamente piane la cui

orientazione è determinata dalla direzione delle forze agenti e dalle proprietà

meccaniche della roccia stessa. La faglia, ed in particolare il luogo in cui si

origina la frattura, costituisce la sorgente sismica. La superficie di frattura può

essere di neoformazione, avvenire lungo una zona di debolezza della roccia o,

con maggiore probabilità, costituire la riattivazione di una faglia preesistente: è

richiesta, infatti, meno energia per riattivare una vecchia superficie di frattura

Page 8: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

8

rispetto a quella richiesta per rompere un materiale integro. Molto

schematicamente nel primo caso si può pensare che per attivare la frattura è

necessario vincere la sola forza d’attrito tra le due superfici della faglia

preesistente, che è minore della forza necessaria a vincere la coesione interna

della roccia intatta. L’effetto della frattura è, in ogni caso, uno scorrimento

relativo di porzioni di roccia lungo la superficie di frattura.

Per definire univocamente nello spazio l’orientazione ed il movimento della

superficie di faglia si adotta la seguente terminologia (fig. 2.1):

Fig. 2.1 - Definizioni strutture e parametri della faglia

• direzione (strike): angolo destrogiro formato tra il nord e l’intersezione del

piano di faglia con il piano orizzontale.

• immersione (dip): angolo tra il piano di faglia ed il piano orizzontale.

• letto (footwall): porzione di roccia al di sotto della superficie di faglia.

• tetto (hangingwall): porzione di roccia sopra la superficie di faglia.

• verso (slip): angolo, sulla superficie di faglia, tra la direzione di movimento

relativo delle due porzioni di roccia (letto e tetto) e l’intersezione del piano di

faglia con il piano orizzontale.

A seconda del verso, si distinguono tre tipi fondamentali di faglia: diretta,

inversa, trascorrente destra e sinistra (fig. 2.2). Le faglie che si osservano in

natura sono in generale combinazioni delle tre tipologie fondamentali.

Page 9: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

9

Fig. 2.2 - Modelli di faglia riscontrabili in natura.

Le faglie possono avere dimensioni molto variabili: dai centimetri alle

centinaia di chilometri. Possono essere localizzate molto in profondità o arrivare

fino in superficie dando origine a strutture geologiche e geomorfologiche

caratteristiche.

2.1.2 La genesi dei terremoti

Come può la generazione o la riattivazione della rottura sulla superficie di

faglia produrre un terremoto? La spiegazione può essere data, molto

schematicamente, dal modello del “rimbalzo elastico” proposto da Reid nel

1909. La deformazione delle rocce, provocata dagli sforzi tettonici, aumenta

fino a che non viene superato il carico di rottura (o molto schematicamente la

soglia di attrito) della roccia. L’idealizzazione del modello, esemplificato dalla

faglia californiana di S. Andreas, parte dall’esistenza di due blocchi di crosta

terrestre in reciproco movimento e a contatto lungo una faglia (fig. 2.3a).

Inizialmente l’attrito tra le zolle, esercitato sulla superficie di faglia, impedisce il

reciproco movimento, ma la roccia circostante la faglia è deformata dagli sforzi

(fig. 2.3b). La deformazione si accumula, per un tempo che può variare dalle

Page 10: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

10

decine alle migliaia di anni, fino a che lo sforzo supera la resistenza del punto di

maggiore debolezza, solitamente in profondità (fig. 2.3c). Da quel punto,

definito ipocentro, la frattura si espande irradiando onde elastiche e cioè le onde

sismiche: i blocchi scorreranno l’uno contro l’altro, di solito in pochi secondi,

fino a riprendere una nuova posizione di equilibrio (fig. 2.3d). L’epicentro è

invece la proiezione in superficie dell’ipocentro. Il modello è in grado di

spiegare approssimativamente la deformazione delle rocce e gli spostamenti

osservabili tra i riferimenti posti sui due lembi della faglia prima e dopo

l’occorrenza del terremoto.

Fig. - 2.3 - Modello schematico dei meccanismi che generano il terremoto (vedi testo).

Dal punto ipocentrale, una volta innescata, la rottura si propaga consentendo ai

due lembi di scorrere reciprocamente lungo la superficie di faglia. Il processo di

propagazione della rottura non è istantaneo: il fronte della rottura si muove con

velocità molto alta (tipicamente centinaia di m/s) sulla superficie di faglia.

Essendo la roccia non omogenea ma più o meno resistente nelle sue diverse

porzioni di volume, il fronte di propagazione può risultare frastagliato (fig. 2.4)

e la velocità di avanzamento della rottura variabile, con rallentamenti ed

accelerazioni. L’estensione complessiva della rottura dipende dalla

deformazione della roccia che la circonda, cosicché la rottura si propagherà sino

Page 11: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

11

a che saranno raggiunte porzioni di roccia in cui la deformazione è sufficiente

per consentire un ulteriore avanzamento del fronte. Durante la rottura, che

permette il movimento relativo di letto e tetto, si ha sfregamento delle due

superfici a contatto che produce calore per attrito ed una macinazione della

roccia (breccia di faglia). Le onde elastiche (sismiche), risultanti dal rilascio

elastico, sono effetto dello spostamento delle masse di roccia adiacenti alla

superficie di rottura.

Fig. - 2.4 Propagazione del fronte di rottura sulla superficie di faglia e posizione di Ipocentro ed Epicentro.

2.1.3 Le onde sismiche

Le onde sismiche sono onde elastiche che si propagano dal loro punto di

origine fino alla superficie topografica con modalità differenti. Le onde sismiche

sono caratterizzate da tre parametri: la lunghezza d’onda (fig. 2.5), l’ampiezza e

la frequenza (numero di oscillazioni al secondo o Hz). La durata di

un’oscillazione completa è detta periodo ed è pari all’inverso della frequenza.

Esistono due principali tipi di onde sismiche: le Onde di Volume e le Onde di

Superficie. Le Onde di volume sono:

Page 12: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

12

• Le Onde P (Primae o onde di compressione, fig. 2.5A): si propagano con

moto oscillatorio parallelo alla direzione di propagazione. Sono le più veloci

(circa 5.5 Km/s nel granito crostale) perciò le prime ad essere percepite.

Possiedono un potenziale distruttivo relativamente basso.

• Le Onde S (Secundae o onde di taglio, fig. 2.5B): arrivano dopo le onde P,

propagandosi più lentamente (circa 3.0 Km/s nel granito crostale), la loro

oscillazione è perpendicolare alla direzione di propagazione. Il moto

oscillatorio può essere scomposto in una componente verticale “SV” ed una

componente orizzontale “SH”. Le onde S non si propagano, a differenza

delle onde P, nei fluidi. Esse hanno un alto potenziale distruttivo, soprattutto

le SH.

Le onde di superficie invece si propagano solo lungo gli strati più prossimi alla

superficie topografica. L’ampiezza di tali onde è infatti massima in superficie e

decresce molto rapidamente con la profondità. Esistono due principali tipi di

onde di superficie:

• Le Onde di Love (LQ) (fig. 2.5C). Esse sono simili alle onde SH ma

confinate alla zona superficiale, si propagano con moto oscillatorio parallelo

alla superficie del terreno e perpendicolarmente alla direzione di

propagazione. Non si propagano attraverso i fluidi. Insieme alle SH sono

responsabili delle massime distruzioni.

• Le Onde di Rayleigh (LR) (fig. 2.5D). Al loro passaggio, le particelle del

suolo si muovono lungo un ellisse perpendicolare alla superficie di

propagazione.

Page 13: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

13

Fig. 2.5 - Tipi di Onde sismiche e caratteristiche del loro moto ondulatorio.

Le onde P, essendo le prime ad essere registrate dagli strumenti sismografici

(costituiscono infatti i cosiddetti “Primi Arrivi”), permettono di determinare la

posizione della sorgente sismica (ipocentro) in termini di longitudine, latitudine

e profondità. La proiezione in superficie dell’ipocentro è detta epicentro (Fig.

Page 14: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

14

2.3 e 2.4). I sismografi posti in una stazione di misura possono registrare il

primo arrivo in “avvicinamento” o in “allontanamento”, in relazione alla loro

posizione rispetto alla superficie di faglia ed al movimento di quest’ultima.

Riferendosi per semplicità ad una faglia trascorrente pura, con immersione a 90°

ed osservandola dall’alto (fig. 2.6) i movimenti dei due lembi (essendo il piano

di faglia verticale non si distinguono letto e tetto) determinano due quadranti in

compressione e due in estensione.

Fig. 2.6 - Modello di movimento di faglia che spiega l’esistenza di due quadranti in compressione e due in

estensione

Tutte le stazioni sismiche poste nei due quadranti in compressione misureranno

le onde P in “avvicinamento”, mentre le stazioni poste nei due quadranti in

estensione misureranno le onde P in “allontanamento”. L’ipocentro di un

terremoto è individuato dall’intersezione dei due piani, definiti nodali, che

limitano i quattro quadranti. I quadranti in compressione ed estensione sono

individuati in base alla distribuzione dei “primi arrivi” registrati dalle stazioni

sismografiche più prossime all’area in cui si sono risentiti gli effetti del

terremoto. La disposizione dei due piani ortogonali, nei cui quadranti ricadono

le stazioni che hanno registrato solo segnali di compressione o dilatazione,

definisce la soluzione nodale del terremoto (fig. 2.7). Risulta così nota

l’orientazione spaziale del piano di faglia che ha generato il terremoto (per

definire quale dei due piani sia la faglia sismogenetica sono necessarie altre

informazioni come l’assetto geologico-tettonico dell’area coinvolta).

Page 15: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

15

Fig. 2.7 - Rappresentazione grafica della soluzione nodale del terremoto (meccanismo focale) in base alla

distribuzione e tipologia dei “primi arrivi” alle stazioni sismografiche.

2.1.4 L’energia del terremoto

Il parametro strumentale più usato per quantificare l’energia rilasciata da un

terremoto è la magnitudo. Nella sua definizione originale, la magnitudo è

espressa come il logaritmo decimale del rapporto tre l’ampiezza massima A

della deflessione misurata su uno strumento standard (un sismometro di tipo

Wood-Anderson) e l’ampiezza A* che sullo stesso strumento produrrebbe un

terremoto campione, detto terremoto standard, preso come riferimento (Richter,

1935):

M = Log10(A/A*) = log10A – log10A* (2.0)

dove M è la magnitudo, A è l’ampiezza del segnale del sismogramma che a sua

volta è proporzionale all’energia liberata dal terremoto. Correda questa

definizione una tabella in cui vengono forniti i valori delle deflessioni prodotte

dai terremoti standard (in termini di -log10A*) in funzione della distanza tra la

Page 16: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

16

stazione sismica e l’epicentro. Il terremoto standard ha perciò una magnitudo

M=0.0. Dalla definizione si deduce che il terremoto campione è quello che a 100

Km di distanza produce una deflessione (ampiezza) pari a 10-3 mm (1 µm).

Richter chiamò la quantità così calcolata magnitudo locale poiché la sua

definizione era originariamente pensata per i terremoti locali della California.

Per tale motivo la magnitudo di Richter viene spesso indicata con il simbolo ML.

Esistono altre scale di magnitudo:

• MS : ottenuta dall’ampiezza delle onde di Rayleigh. È utilizzata per

caratterizzare i terremoti più distruttivi con origine relativamente in

superficie. Non è invece indicato per i terremoti relativamente piccoli,

regionali o locali.

• mb : ottenuta dalla massima ampiezza di onde P misurata sulla componente

verticale. Descrive in modo attendibile l’intensità di terremoti profondi ed

intensi ma non di quelli più catastrofici.

In generale tutti questi tipi di magnitudo tendono a saturare, ovvero ad essere

insensibili alle differenze di energia rilasciata dai terremoti più intensi. Una

magnitudo che descriva ogni tipo di terremoto si basa sul concetto di Momento

Sismico M0:

M0 = µµµµsru (2.1)

dove µµµµ è il modulo di rigidità della roccia, sr è l’area della superficie di rottura,

u è lo spostamento medio tra i due lembi della superficie di rottura. A partire dal

momento sismico è possibile determinare una Magnitudo Momento Sismico

MW :

MW = (LogM0 – 16.05)/1.5

Oltre a legare direttamente la grandezza del terremoto alle dimensioni della

sorgente, a differenza delle altre, la magnitudo momento sismico ha l’indubbio

vantaggio di distinguere i diversi livelli di energia irradiata dagli eventi

maggiori. Una relazione approssimata tra la magnitudo e l’energia rilasciata è

fornita dalla seguente equazione:

Log E = 1.5MS +11.8

dove E è l’energia, in erg, rilasciata da un terremoto di magnitudo MS. Essendo

la relazione logaritmica, la differenza d’energia tra due gradi di magnitudo è

quindi pari ad un fattore 1000.

Page 17: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

17

2.2 Lo scuotimento sismico

2.2.1 Aspetti generali

Il punto chiave di ogni stima di pericolosità sismica è la previsione dello

scuotimento sismico, e cioè del moto sismico del suolo. In particolare,

nell’analisi di pericolosità sismica si considerano i moti del suolo di entità tale

da provocare danni su strutture edili (abitazioni, strutture industriali, ponti,

strade, ecc.).

Il modo più diretto per caratterizzare le interazioni fra i movimenti del suolo e

le sollecitazioni prodotte sull’edificato è quello di utilizzare l’accelerazione del

terreno in quanto questa è direttamente legata alle forze in gioco. Questa è

solitamente espressa in frazioni di g, l’accelerazione di gravità, che è pari a 9.81

m/s2. La scelta di questa unità di misura è legata al fatto che le strutture portanti

degli edifici sono sostanzialmente progettate per sostenerne il peso che è

funzione diretta dell’accelerazione di gravità. Quest’ultima rappresenta quindi

una scala naturale per rappresentare tutte le sollecitazioni a cui una costruzione

può essere sottoposta.

2.2.1.1 Le interazioni suolo-strutture

L’analisi della pericolosità sismica mira a prevedere gli effetti del moto del

suolo su strutture e costruzioni di dimensioni e massa ben definite. Le

interazioni tra le costruzioni e il moto del suolo durante un terremoto (SSI Soil-

Structure Interaction) sono assai complesse e vanno valutate attraverso studi

ingegneristici e geotecnici di dettaglio, specifici per ciascuna situazione (si

vedano i paragrafi 2.2.2 e seguenti).

Le interazioni suolo-strutture possono essere suddivise in due gruppi:

interazioni cinematiche e interazioni dinamiche. Le prime sono calcolate non

considerando la massa delle strutture coinvolte ritenendo che le dimensioni

relativamente piccole delle fondazioni rispetto alla lunghezza d’onda delle onde

sismiche giustifichino questo approccio. In questo caso, infatti, la modificazione

del moto del suolo causata dalla presenza di edifici è trascurabile. Le interazioni

Page 18: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

18

dinamiche o inerziali sono prese in esame quando la massa delle fondazioni e

l’inerzia che essa oppone ai cambiamenti di quiete o moto, secondo i princìpi

della dinamica, giocano un ruolo importante. In questo caso, le interazioni

dinamiche fra suolo e struttura possono limitare l’ampiezza e l’intensità dello

scuotimento sismico diminuendo gli effetti dannosi e dissipando molta energia

(smorzamento della radiazione o radiation damping).

In una visione assai semplificata il moto del suolo, provocato dal terremoto,

causa negli edifici oscillazioni smorzate. Ciascun edificio è infatti caratterizzato

da una frequenza naturale ννννn il cui valore dipende dalle dimensioni e dalle

caratteristiche costruttive. L’inverso della frequenza 1/νννν definisce il periodo

proprio dell’oscillazione. Se un edificio viene sottoposto ad una sollecitazione

periodica con frequenza vicina a quella naturale, gli effetti di questa

sollecitazione saranno massimi (fenomeno della risonanza). È quindi di estrema

importanza sapere se le sollecitazioni del terreno sono caratterizzate da periodi

simili a quelli naturali delle strutture sollecitate.

L’andamento nel tempo della sollecitazione sismica del terreno può essere

visto come la somma di diverse sollecitazioni periodiche ciascuna caratterizzata

in termini di un’oscillazione regolare di frequenza fissata (componenti spettrali).

Utilizzando opportuni algoritmi matematici (analisi di Fourier) è possibile

sapere come la sollecitazione complessiva che interessa l’edificio viene

distribuita nelle varie componenti spettrali ed, in particolare, a quale di queste

sono associate le sollecitazioni massime.

Per valutare i possibili effetti dello scuotimento sismico è importante accertare

quali siano le componenti spettrali più energetiche e se la loro frequenza si

avvicina alla frequenza naturale di oscillazione degli edifici. Per questo motivo è

stato introdotto il concetto di accelerazione effettiva, definita come il valore

d’accelerazione corrispondente alla frequenza di interesse, di solito quella

propria della struttura allo studio. L’evidenza sperimentale indica che i massimi

d’accelerazione provocati dal terremoto si hanno per alte frequenze (>10 Hz)

mentre le strutture più massive sono caratterizzate da frequenze naturali molto

piccole (Ζ1 Hz). In particolare, gli edifici con ampie fondamenta risultano meno

sensibili ai moti sismici caratterizzati da frequenze elevate mentre risultano

molto sensibili a sollecitazioni caratterizzate da basse frequenze.

Page 19: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

19

2.2.1.2 La misura strumentale dello scuotimento sismico

Dal punto di vista sperimentale, l’andamento nel tempo dell’accelerazione che

il suolo subisce a seguito di un terremoto può essere rilevato dall’accelerografo,

un sismografo configurato in modo da risultare sensibile alle onde sismiche ad

alta frequenza nelle tre direzioni spaziali. Il tracciato corrispondente viene

denominato accelerogramma. Integrando analiticamente i dati di accelerazione

è possibile risalire alla velocità e all’ampiezza dei movimenti del suolo.

Le registrazioni accelerografiche sono caratterizzate da alcune limitazioni. Per

esempio il valore di PGA (peak ground acceleration o massima accelerazione

del suolo) direttamente misurabile dagli accelerogrammi non è il massimo

assoluto di accelerazione ma il massimo tra le frequenze rilevabili dagli

accelerografi in funzione delle condizioni locali del sito di misura. Inoltre, tutte

le registrazioni sismiche sono ricavate da strumentazioni poste in particolari

edifici o strutture. Al fine di valutare l’attendibilità delle registrazioni, è

necessario conoscere come e quanto gli strumenti di misura siano influenzati

dalle interazioni suolo-strutture dovute agli edifici o alle installazioni dove sono

posizionati. A causa di queste influenze i valori di accelerazione possono essere

filtrati, alterati da amplificazioni o smorzati in corrispondenza di alcune

frequenze. In generale, i fenomeni di interazione suolo-strutture possono

condizionare in modo rilevante la stima strumentale del moto sismico soprattutto

alle alte frequenze. Il fenomeno diventa energeticamente trascurabile quando le

frequenze interessanti superano i 10 Hz.

Per valutare l’effetto dell’accelerazione del suolo, su di un generico edificio,

l’accelerazione misurata viene analizzata matematicamente ipotizzando che

questa solleciti un oscillatore sinusoidale, smorzato o no, rappresentativo

dell’edificio. In questo modo viene costruito il cosiddetto spettro di risposta

che rappresenta l’effetto dello scuotimento sismico alle diverse frequenze.

L’accelerogramma teorico ottenuto in questo modo può essere utilizzato,

mediante successive operazioni di integrazione matematica, per stimare lo

spostamento relativo del terreno (RD - Relative Displacement), la pseudo

velocità relativa PSRV (pseudo relative velocity) e la pseudo accelerazione

assoluta PSAA (pseudo absolute acceleration).

Page 20: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

20

Le relazioni tra RD, PSRV, PSSA, in funzione dello spettro di frequenza e per

diversi valori dello smorzamento, sono rappresentabili mediante un diagramma

tripartito (tripartite plot, fig. 2.8). Da questo tipo di diagramma è possibile

identificare quali sono i valori massimi di velocità, accelerazione e spostamento

del suolo, nonché se le frequenze che li generano si avvicinano alle frequenze

naturali delle strutture di interesse.

Fig. 2.8 – Spettro di risposta relativo ad una registrazione accelerografica. Sono rappresentati lo spostamento

relativo del terreno (RD - Relative Displacement), la pseudo velocità relativa PSRV (pseudo relative velocity) e la pseudo accelerazione assoluta PSAA (pseudo absolute acceleration). Le diverse curve si riferiscono a diversi valori dello smorzamento (damping). Le lettere in blu si riferiscono ad un esempio di lettura riportato nel testo.

La lettura dei tre parametri per un periodo (o frequenza) d’interesse si effettua

a partire dal punto “A” sull’asse dei periodi (ma sarebbe uguale partendo

dall’asse delle frequenze) mandando la verticale sino all’intersezione “B” con la

curva dello spettro di risposta per il valore di smorzamento (damping) prefissato,

Page 21: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

21

0% nell’esempio riportato. Dal punto di intersezione “B”, la parallela all’asse

dei periodi, nella direzione “C”, individua il valore della pseudo velocità

relativa PSRV (pollici/s nel grafico). La direzione “D”, a 45° verso sinistra,

individua invece il valore della pseudo accelerazione assoluta PSAA (in frazioni

di g), mentre la direzione “E” a 45° verso destra, individua lo spostamento

relativo del terreno RD (in cm o pollici). I valori dei tre parametri sono leggibili

in corrispondenza della freccia sul rispettivo asse, che si ricorda essere

logaritmico.

2.2.1.3 La caratterizzazione quantitativa dello scuotimento sismico

Lo scuotimento sismico può essere caratterizzato mediante diversi parametri.

La scelta del parametro più adatto è funzione degli obiettivi dell’analisi di

pericolosità sismica e delle informazioni disponibili.

Il modo più semplice, ed il più utilizzato, per caratterizzare lo scuotimento

sismico è mediante il picco di massima accelerazione del suolo PGA (Peak

Ground Acceleration) che rappresenta la massima sollecitazione (in termini di

forze) a cui una data struttura viene sottoposta. In generale, il massimo delle

accelerazioni viene riscontrato per frequenze alte, lontane dalla frequenza

propria degli edifici (tipicamente 1 Hz), quindi la PGA è solo raramente efficace

come indicatore sintetico dei danni.

Si è osservato che in alcuni casi il picco di velocità è un migliore indicatore

sintetico di danno rispetto al picco di accelerazione. Il picco di velocità,

usualmente associato a movimenti sismici del suolo a lungo periodo, è

facilmente correlabile con l’energia cinetica (proporzionale a V2). Per ovviare i

limiti che anche il picco di velocità possiede nel quantificare le relazioni tra

danni e moto del suolo, sono stati proposti altri parametri ritenuti più efficaci.

Uno di questi parametri è l’Intensità di Arias IA (Arias, 1970), definita come:

∫∫∫∫ππππ

====0

0

2 )(2

t

A dttag

I

dove a(t) è l’accelerazione rilevata nell’intervallo compreso fra l’inizio dello

scuotimento sismico e il tempo t0 quando il forte moto del suolo cessa.

L’Intensità di Arias IA è dipendente dall’energia totale del moto sismico.

Page 22: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

22

Un altro parametro è il CAV o Velocità Assoluta Cumulativa (Cumulative

Absolute Velocity) definito come:

∫∫∫∫====0

0

t

dt|)t(a|CAV

dove |a(t)| è il valore assoluto dell’accelerazione e CAV è la somma delle

velocità incrementali.

Un ulteriore parametro rappresentativo della pericolosità sismica è l’Intensità

di Housner H… definita come l’integrale dello spettro di risposta di

pseudovelocità (a pericolosità uniforme, par. 3.3.3.1.2) calcolato in un

opportuno intervallo di frequenze; i puntini indicano il tempo di esposizione per

cui è stimata. Il parametro può rappresentare le diverse condizioni di pericolosità

e risultare correlato al danno subito dagli edifici in base alle scelte del periodo di

ritorno e dell’intervallo spettrale. È quindi possibile utilizzare diversi indicatori.

Ad esempio il parametro H50 è significativo per individuare il livello di

protezione dal collasso dovuto a terremoti distruttivi ma piuttosto rari, H10 è

significativo per individuare il livello di protezione dal danneggiamento per

terremoti più frequenti e meno pericolosi, ma tali da produrre danni e disagi

notevoli. In particolare:

• H50, corrispondente a un periodo medio di ritorno di 475 anni (probabilità di

eccedenza del 10% in 50 anni) e all’intervallo spettrale 0.2-2 sec.; tale

parametro, associato a un lungo periodo di ritorno e alle ordinate spettrali

relative a periodi medio–lunghi, è correlato principalmente alla possibilità

che si verifichino terremoti di elevata magnitudo e di conseguenza è un

indice significativo del livello di protezione dal collasso.

• H10: corrispondente a un periodo medio di ritorno di 95 anni (probabilità di

eccedenza del 10% in 10 anni) e all’intervallo spettrale 0.1-0.5 sec; tale

parametro, associato a un breve periodo di ritorno e alle ordinate spettrali

relative a periodi brevi, è correlato principalmente alla possibilità che si

verifichino terremoti di bassa magnitudo e di conseguenza è un indice

significativo del livello di protezione dal danneggiamento.

(per la definizione di tempo medio di ritorno, tempo di esposizione e probabilità

di eccedenza si vedano i par. 3.3 e seguenti).

Alcune evidenze, infine, indicano che a parità di valore assoluto di

accelerazione, la durata delle oscillazioni sismiche è da considerarsi

Page 23: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

23

determinante per l’intensità finale dei danni. L’effetto della durata è quello di

prolungare le sollecitazioni nel tempo e attivare fenomeni che aggravano gli

effetti del moto sismico (liquefazione del suolo, instabilità di versanti, ecc.).

Utilizzando i soli picchi di velocità o accelerazione del suolo, la durata dello

scuotimento non è considerata, mentre costituisce un fattore importante per

definire gli effetti attesi anche in corrispondenza di picchi di accelerazione o

velocità non ritenuti pericolosi.

La durata dello scuotimento sismico può essere definita in diversi modi. La

definizione più diffusa è quella di durata limitata (bracketed duration) che

descrive l’intervallo di tempo, durante il terremoto, nel quale è superata una

soglia di accelerazione del moto sismico del suolo (es. 0.05g).

2.2.1.4 Le scale d’intensità macrosismica

Tutte le grandezze descritte nel paragrafo precedente possono essere dedotte

dall’analisi delle accelerazioni misurate strumentalmente. I principali vantaggi,

nell’uso di questi parametri per caratterizzare lo scuotimento sismico, risiedono

nel loro carattere quantitativo e nella possibilità che offrono di analizzare, da un

punto di vista fisico, le interazioni suolo-strutture. Tuttavia la complessità di

quest’ultimo processo rende impossibile stabilire una relazione biunivoca fra il

danneggiamento atteso e lo scuotimento sismico descritto da questi parametri.

Un procedimento alternativo, per la valutazione dello scuotimento sismico, è

quello di tipo indiretto basato su una classificazione dei diversi scenari di danno

prodotti dai terremoti. I vari scenari permettono una valutazione di tipo ordinale

degli effetti sismici e, indirettamente, dello scuotimento sismico che li ha

originati. Questi scenari costituiscono le cosiddette scale di intensità

macrosismica. Ciascuna fornisce una classificazione numerica basata su classi

discrete che esprimono l’intensità I, definendola come l’unico parametro

fondamentale della sismologia macrosismica, capace di quantificare e

classificare la severità dello scuotimento del terreno attraverso l’osservazione

degli effetti prodotti dal terremoto.

L’intensità macrosismica è una misura convenzionale basata sull’osservazione

di un insieme di elementi (relativi ai comportamenti delle persone, gli effetti

Page 24: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

24

sull’ambiente e sugli edifici) congruenti con una determinata risposta sismica.

Le varie categorie di effetti vengono ordinate su una scala ordinale e discreta di

valori, a partire dalla risposta più leggera fino a quella più distruttiva, venendo

così a costituire i gradi di una scala di intensità che consente di attribuire un

parametro in qualche modo quantitativo (il grado di intensità espresso in forma

numerica) ad un insieme di dati puramente qualitativi (la descrizione dei danni e

degli effetti causati da un terremoto in una determinata località).

Benché già nel XVI secolo fosse iniziata la compilazione di scale di questo

genere, il primo lavoro nel quale veniva stabilito un criterio di valutazione

internazionalmente riconosciuto fu la scala De Rossi-Forel (1884), in 10 gradi,

successivamente ampliata e migliorata (soprattutto per quanto concerneva la

saturazione dei gradi elevati) nel 1902 da Giuseppe Mercalli il quale ne portò a

12 i livelli. Tale scala, in seguito ulteriormente modificata da Cancani e Sieberg

(1932) nella versione MCS (dalle iniziali degli autori: Mercalli-Cancani-

Sieberg), è tuttora in uso in Italia (la scala MCS è riportata in Appendice).

Ulteriori variazioni, come l’introduzione della tipologia degli edifici nella

valutazione del grado di danneggiamento, furono apportate nel 1931 da Wood e

Neumann i quali produssero la scala Mercalli Modificata (MM), in seguito

perfezionata da Richter nel 1956.

Più recentemente, i danni arrecati alle costruzioni hanno assunto sempre

maggiore importanza, rispetto ad indicatori di altro genere, nell’evoluzione delle

scale macrosismiche. Infatti, se da un lato la possibilità di classificare le

tipologie di edificio e le caratteristiche dei danni consente una maggiore

oggettività delle valutazioni, dall’altro è importante ricordare che la prevenzione

dei danni alle costruzioni, e di conseguenza alle persone, costituisce l’obiettivo

principale della ricerca sismologica. In base a queste considerazioni, le scale

macrosismiche più recenti, quali ad esempio la Medvedev-Sponheuer-Karnik

(MSK), prendono in esame il tipo di danno in relazione alle tipologie costruttive

legate all’edilizia più recente e, quindi, forniscono un quadro complessivo degli

effetti sismici in relazione al contesto edilizio coinvolto.

Negli ultimi anni, l’esigenza di definire una scala più robusta ed agevole

nell’utilizzo e che prendesse in considerazione le nuove tipologie edilizie

(soprattutto le costruzioni progettate a norma antisismica) ha portato alla

compilazione della nuova scala macrosismica europea EMS92 e successiva

Page 25: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

25

EMS98. Tale scala, che costituisce un aggiornamento della precedente MSK,

individua per gli edifici cinque gradi di danno crescenti da 1 a 5 (es., grado 1 =

danno strutturale assente; grado 5 = collasso o danno strutturale molto forte) e

sei classi di vulnerabilità (es., classe A = edifici molto vulnerabili in muratura

con pietre non squadrate; classe F = edifici poco vulnerabili in cemento armato

con alto livello di progettazione antisismica).

Attualmente in vari Paesi del mondo vengono adottate scale diverse. Negli

Stati Uniti è particolarmente in uso la scala MM, in Europa Orientale viene

prevalentemente impiegata la MSK, mentre in Giappone è utilizzata la scala

JMA a otto gradi di intensità. Per quanto riguarda l’Italia, viene prevalentemente

adottata la scala MCS, soltanto negli ultimi anni è entrata in uso anche la scala

europea EMS.

Dal momento che le scale macrosismiche elencate risalgono ad epoche diverse

e sono basate su criteri differenti, esse non coincidono esattamente: spesso

apparenti contraddizioni sorgono dal modo in cui sono state utilizzate soprattutto

per quanto concerne gli effetti sugli edifici. La scala MCS, ad esempio, nata

intorno agli inizi del XX Secolo, fa riferimento a costruzioni dell’epoca

(certamente preesistenti all’avvento del cemento armato ed alla progettazione

antisismica) realizzate con mezzi tecnici ed economici modesti; un’applicazione

“letterale” di tale scala ad un abitato moderno porterebbe, secondo alcuni, a

sottostimare l’intensità di almeno due gradi nel caso di intensità superiori al

grado VI.

Il principale vantaggio di una parametrizzazione dello scuotimento sismico

mediante l’intensità macrosismica risiede nella possibilità che offre di

classificare lo scuotimento in funzione dei danni, e più in generale, degli effetti

che esso è in grado di provocare nell’ambiente antropico, tenendo quindi conto

implicitamente del complesso processo di interazione suolo-strutture.

Un ulteriore vantaggio dell’utilizzo dell’intensità macrosismica è quello di

consentire la caratterizzazione dello scuotimento sismico in corrispondenza di

terremoti del passato i cui effetti possono essere dedotti in modo non-

strumentale solo sulla base dei documenti disponibili. Questo rende l’intensità

uno strumento insostituibile per analisi di pericolosità basate sullo studio della

sismicità passata.

Page 26: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

26

Il principale limite di questo tipo di parametrizzazione risiede nel suo carattere

fondamentalmente empirico. Va comunque notato come il carattere

fenomenologico dell’intensità macrosismica non rende questa parametrizzazione

dello scuotimento “arbitraria” anche se mantiene grandi margini di

“soggettività”.

Un altro limite dell’intensità macrosismica è il suo carattere “medio”. Infatti,

mentre le misure accelerografiche permettono una stima puntuale dello

scuotimento, l’intensità rappresenta uno “scenario” di danno e quindi uno

“scuotimento medio” del terreno su di un’area estesa. Infine, questo parametro

non è direttamente utilizzabile per la progettazione degli edifici in funzione

antisismica.

Per superare quest’ultimo problema sono state proposte stime e leggi empiriche

per la valutazione grossolana dei parametri di scuotimento “ingegneristici” a

partire dal dato di intensità. Per esempio

log a = 0.30 IMM +0.014 (IV≤≤≤≤IMM≤≤≤≤X)

e

log v = 0.25 IMM – 0.63 (IV≤≤≤≤IMM≤≤≤≤X)

dove a è la media stimata della componente orizzontale del picco

d’accelerazione, v è la media stimata della componente orizzontale del picco

della velocità, IMM è l’intensità Mercalli Modificata.

Per l’area mediterranea, l’Italia in particolare, sono state proposte le seguenti

relazioni di regressione tra l’intensità macrosismica e l’accelerazione del suolo.

In condizioni di campo lontano si avrà che

849.0158.0log ++++==== MSKIhPGA

e

689.0179.0log ++++==== MCSIhPGA

dove hPGA è il picco di accelerazione orizzontale del suolo, IMSK è l’intensità

espressa nella scala MSK e IMCS è l’intensità espressa nella scala MCS.

Queste relazioni, utilizzabili per una stima qualitativa dei parametri di

scuotimento di interesse ingegneristico, qualificano l’intensità macrosismica per

valutazioni di pericolosità, grazie alla sua capacità di fornire una stima diretta

(anche se empirica) del tipo di scenario di danno atteso per un dato evento

sismico.

Page 27: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

27

2.2.2 I processi fisici che controllano lo scuotimento sismico

Lo scuotimento sismico è generalmente controllato da tre fattori principali:

• Caratteristiche della Sorgente, ovvero le modalità di rilascio dell’energia

sismica responsabile dello scuotimento sismico al sito.

• Caratteristiche di propagazione dell’energia sismica, che includono le

modalità di propagazione dell’energia dalla sorgente al sito.

• Caratteristiche di sito, ovvero l’insieme dei fattori geomorfologici e

strutturali che controllano le modalità di propagazione dell’energia nelle

immediate vicinanze del sito.

La conoscenza del modo in cui questi fattori controllano lo scuotimento

sismico è la premessa fondamentale per la valutazione della pericolosità sismica.

2.2.2.1 La sorgente sismica

Per meglio capire come il moto sismico del suolo sia influenzato dal tipo di

sorgente, è uso corrente riferirsi ad un semplice modello (modello di Brune) in

cui la sorgente viene descritta come un piano di scorrimento circolare di raggio

definito (la faglia), in cui la rottura interessa contemporaneamente l’intera area.

La dimensione della faglia, in relazione alla lunghezza d’onda dell’emissione

sismica, individua una distanza minima oltre la quale si definisce il campo

lontano (far field), dove gli effetti di dimensione o conformazione della

superficie di rottura sismica possono essere considerati trascurabili.

Normalmente l’assunzione di campo lontano si realizza quando le dimensioni

stimate della sorgente sismogenica sono inferiori di un fattore 10-2 rispetto alla

distanza sito-sorgente. In questo caso la sorgente può essere assunta puntiforme.

Se ciò non si verifica si fa riferimento ad una situazione di campo vicino (near

field). Utilizzando il semplice modello proposto è poi possibile calcolare

analiticamente lo spettro del terremoto atteso in funzione delle caratteristiche

geometriche della sorgente.

La reale conformazione della superficie di rottura complica il semplice modello

proposto quando si tenta di simulare la radiazione sismica nel campo vicino. La

nucleazione della rottura non è un processo istantaneo, l’espansione della

Page 28: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

28

superficie di frattura avviene a velocità finita. Il fronte di rottura si propaga sul

piano di faglia con velocità dell’ordine di grandezza delle onde S, fino a che non

arriva in superficie o incontra troppa resistenza per proseguire. Alte velocità di

propagazione della frattura implicano grandi movimenti del suolo in superficie,

specialmente per onde sismiche ad alta frequenza.

La propagazione del fronte di rottura risulta condizionata dall’eterogeneità del

mezzo geologico. L’effetto è che il moto risultante associato alla faglia non è

uguale su tutta la superficie di rottura, cosa che risulterebbe da una propagazione

perfettamente omogenea. Le faglie reali sono dotate di porzioni più resistenti

definite barriere o asperità. I termini implicano diversi meccanismi nel

movimento delle superfici di faglia. Nel modello a barriere, lo stato di sforzo

iniziale della superficie di faglia è considerato uniforme, mentre l’avanzamento

dei fronti di rottura lascia alle sue spalle zone di resistenza definite barriere. Se

lo stato di sforzo è tale da vincere anche queste resistenze, si potranno avere

altre nucleazioni di rottura, queste produrranno le repliche (aftershock), scosse

associate all’evento sismico principale.

Nel modello ad asperità lo stato di sforzo della faglia è già inizialmente

eterogeneo con zone a tensione nulla e zone in cui gli sforzi sono concentrati, le

asperità. Quando la resistenza delle asperità è superata, la faglia si muove

generando il terremoto. Secondo alcuni studiosi, le repliche e le eventuali scosse

precedenti quella principale sono spiegabili con la presenza delle barriere e delle

asperità.

2.2.2.1.1 Gli effetti direzionali

La conoscenza dell’orientazione spaziale della superficie di faglia, la “struttura

sismogenica”, è importante in quanto permette di determinare le direzioni lungo

le quali le onde sismiche avranno la massima ampiezza. Infatti, a partire

dall’ipocentro, le onde S e P non si propagano nel volume di roccia con un

fronte sferico uniforme ma assumono una distribuzione che dipende

dall’orientazione del piano di faglia e dalla direzione di scorrimento. Le

caratteristiche proprie del moto oscillatorio delle onde P determinano dei lobi di

propagazione in cui quelle a massima ampiezza sono prossime alle direzioni a

Page 29: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

29

45°, 135°, 225° e 315° dal piano di faglia (fig. 2.9). Nell’illustrazione si è

assunto una condizione di campo lontano approssimando la sorgente ad un

punto.

Risultano così quattro lobi perpendicolari tra loro che individuano le direzioni

di massima ampiezza delle onde P (nella realtà i lobi sono tridimensionali).

Analogamente esistono quattro lobi in cui si ha il massimo di ampiezza delle

onde S. Questi hanno direzione parallela e perpendicolare al piano di faglia e

risultano ruotati di 45° rispetto ai lobi delle onde P. Sapere le direzioni in cui si

propagano le onde di massima ampiezza è fondamentale per conoscere in che

zone, rispetto all’ipocentro e all’orientazione del piano di faglia, si

riscontreranno, in superficie, gli effetti più intensi di scuotimento del suolo.

Fig. 2.9 - Orientazione dei lobi di propagazione delle onde P in funzione dell’orientazione della faglia sismogenetica. La lunghezza delle frecce è proporzionale all’ampiezza delle onde emesse nella direzione corrispondente

Un importante effetto legato alla velocità finita di propagazione del fronte di

rottura è la direttività (directivity) o focalizzazione (focusing). Il fronte di

rottura, propagandosi con velocità finita dall’ipocentro lungo la superficie di

faglia, determinerà uno scuotimento del suolo differente in due siti posizionati in

modo opposto rispetto alla direzione di faglia. Per un effetto di interferenza

costruttiva, un sito che si trova lungo la direzione di propagazione del fronte di

Page 30: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

30

rottura, risentirà di ampi scuotimenti sismici di breve durata. Un sito posto nel

verso opposto, risentirà invece di movimenti di minore ampiezza ma di più

lunga durata. Il fenomeno si accentua quando la velocità di rottura è prossima a

quella delle onde S e l’angolo tra ricevitore e faglia è piccolo.

2.2.2.2 Gli effetti di propagazione

2.2.2.2.1 L’attenuazione

Gli effetti del percorso di propagazione sul moto sismico del suolo sono

principalmente legati al fenomeno dell’attenuazione che agisce sulle onde

sismiche. L’attenuazione comporta una diminuzione nell’ampiezza delle onde

sismiche man mano che queste si allontanano dalla sorgente. Per questo motivo

la distanza r sito-epicentro terremoto, insieme alla magnitudo, rimane uno dei

parametri fondamentali per la definizione del moto sismico del suolo.

Nel caso ideale, l’attenuazione risulta dalla combinazione di due componenti:

la diffusione geometrica (geometrical spreading) e l’assorbimento o

smorzamento (adsorption o damping). Il primo effetto comporta una

diminuzione d’ampiezza delle onde sismiche dovuta alla ridistribuzione della

loro energia su di un fronte d’onda di superficie sempre più ampia al crescere

della distanza dalla sorgente. La diminuzione di ampiezza avviene secondo un

fattore 1/r, se il fronte d’onda è assunto sferico (propagazione in un mezzo

uniforme ed isotropo), oppure 1/ r se il fronte d’onda è assunto cilindrico

(mezzo stratificato e piano). La struttura sferica e stratificata della Terra

complica la scelta dell’esatto fattore di attenuazione per diffusione geometrica,

tuttavia, per forti scuotimenti dovuti a terremoti vicini l’incertezza sull’esatta

assunzione del fattore di attenuazione è secondaria.

Il fenomeno dello smorzamento dipende dalla natura non perfettamente elastica

del mezzo geologico che determina una perdita continua di energia durante la

propagazione. L’effetto è quello di una costante diminuzione nell’ampiezza

dell’oscillazione, con la distanza, fino al completo smorzamento. L’espressione

che lega la diminuzione di ampiezza, dovuta allo smorzamento, in relazione alla

Page 31: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

31

distanza percorsa dall’onda sismica tra due posizioni successive r ed r0 lungo la

stessa direzione, ha la forma generica

2

)(

0

0

)()(

rrQ

erArA

−−−−−−−−

====

dove Q, definito Fattore di Qualità, caratterizza l’assorbimento in funzione del

tipo di onda sismica e del mezzo di propagazione. Q può essere definito come il

tasso con cui l’ampiezza delle onde sismiche diminuisce con la distanza

percorsa. L’effetto dell’attenuazione, direttamente proporzionale alla frequenza

di propagazione, è confermato da evidenze sperimentali che evidenziano un

maggiore smorzamento delle onde sismiche che si propagano ad alta frequenza,

con conseguente diminuzione degli effetti provocati.

2.2.2.2.2 La legge di attenuazione

I fenomeni di attenuazione descritti nel paragrafo precedente e nell’assunzione

che la propagazione avvenga in una Terra immaginata come uno spazio

omogeneo ed isotropo, possono essere sintetizzati nella relazione seguente

)rr(Q

er

rKAA

020

0

−−−−−−−−==== (2.2)

dove A è l’ampiezza dell’onda alla distanza r dalla sorgente, A0 rappresenta

l’ampiezza dell’onda in un punto fissato posto ad una distanza r0 dalla sorgente,

K è una costante che non dipende dalla distanza della sorgente. In forma

logaritmica, l’equazione (2.2) è la seguente

)rr(Q

rln)Krln(AlnAln 0002

−−−−−−−−−−−−++++==== (2.3)

Dalla definizione della magnitudo M (vedi eq. 2.0) si sa che *AlnAlnM −−−−==== 0 (2.4)

Sostituendo la (2.4) nella (2.3) si ha che

++++++++++++−−−−−−−−==== 0*

02

ln)ln(2

lnln rQ

AKrrQ

rMA (2.5)

dove il termine fra parentesi quadre non dipende dalla distanza del punto

considerato dalla sorgente o dall’energia rilasciata.

Page 32: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

32

L’equazione (2.5) suggerisce che il logaritmo dell’accelerazione di un’onda,

che si propaga in un mezzo isotropo, dipende linearmente dalla distanza r dalla

sorgente, dal logaritmo di questa distanza e dalla magnitudo dell’evento che l’ha

generata. In pratica, conoscendo la posizione della sorgente e la magnitudo del

terremoto responsabile dello scuotimento sismico ad un dato sito, conoscendo Q

e le costanti sperimentali che compaiono nella (2.5) sarebbe possibile prevedere

il valore dell’accelerazione prodotta dal terremoto. In generale, questi dati non

sono disponibili per via teorica e devono essere determinati empiricamente a

partire da osservazioni strumentali relative agli effetti di attenuazione

effettivamente osservati.

Le modalità di attenuazione descritte sopra rappresentano una semplificazione

dei processi che avvengono effettivamente. In particolare, l’eterogeneità del

mezzo in cui si propagano le onde sismiche rende l’attenuazione funzione del

percorso effettivamente seguito dalle onde sismiche dalla sorgente al sito. È

quindi ragionevole aspettarsi che terremoti provenienti da direzioni diverse o da

terremoti con epicentro caratterizzato da profondità differenti possano

raggiungere il sito con modalità differenti anche a parità di distanza.

2.2.2.3 Gli effetti di sito

In occasione di molti terremoti si sono riscontrati danni di intensità inattesa in

relazione alla distanza epicentrale e alla magnitudo del sisma. La causa è da

attribuirsi alle particolari condizioni geomorfologiche del sito colpito capaci di

amplificare lo scuotimento del suolo e quindi gli effetti distruttivi sulle strutture

che sono poste sopra di esso. Questi effetti di sito possono risultare

preponderanti rispetto agli altri parametri che determinano il valore del moto del

suolo.

2.2.2.3.1 Gli effetti di risonanza

La risposta sismica locale è definita come l’insieme delle variazioni in

ampiezza, durata e contenuto in frequenza, che un’onda sismica subisce

Page 33: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

33

attraversando gli strati di terreno sovrastanti una formazione rocciosa, posta ad

una certa profondità nel sottosuolo, fino alla superficie. Queste variazioni

possono comportare un’amplificazione, come è il caso di una struttura geologica

molto comune, costituta da una copertura sedimentaria di spessore variabile

posta al di sopra di un basamento roccioso. Il fenomeno è provocato dalle

differenti caratteristiche meccaniche della roccia e del terreno. Il rapporto tra

l’accelerazione misurabile sul suolo rispetto all’accelerazione misurabile su

roccia, se affiorasse nel medesimo sito, determina il fattore di amplificazione

che solitamente è >1. È quindi frequente riscontrare i valori maggiori di

accelerazione in presenza di copertura sedimentaria. Il fattore di amplificazione

al sito non è costante, ma varia in funzione del contenuto in frequenza delle

onde sismiche. Questo andamento, dipendente dalla frequenza, è descritto dalla

funzione di amplificazione. Si avranno quindi frequenze di oscillazione

particolari per cui le onde sismiche, passando dalla roccia alla copertura

sedimentaria, daranno picchi di accelerazione del suolo molto elevati. La

funzione di amplificazione è una grandezza importante che indica quali

componenti spettrali delle onde sismiche sono state amplificate nel passaggio

attraverso il terreno e quali sono state smorzate. La copertura sedimentaria

agisce quindi come un “filtro”, amplificando l’ampiezza del moto del suolo in

corrispondenza di alcune frequenze e riducendola in corrispondenza di altre.

Questo effetto è dovuto alla differenza di densità ρρρρ e di velocità delle onde di

taglio VS che esiste tra roccia e sedimento. Il prodotto ρρρρVS definisce

l’impedenza del mezzo geologico rispetto alle onde sismiche. L’interfaccia

deposizionale (contatto netto tra roccia e sedimento) costituisce il contrasto

d’impedenza che è la condizione necessaria per permettere i fenomeni di

intrappolamento e risonanza causa dell’aumento locale dell’ampiezza delle

onde sismiche. Sinteticamente, il fenomeno si ha quando un’onda S, assunta

come sollecitazione armonica (a frequenza υυυυ costante), colpisce dal basso

l’interfaccia roccia-sedimento, questo ultimo considerato con caratteristiche

costitutive lineari. Il contrasto di impedenza tra roccia e sedimento intrappola

l’onda sismica nello spessore del deposito sedimentario determinando una serie

di riflessioni multiple costruttive. Il risultato è un accrescimento dell’ampiezza

dell’onda sismica e del conseguente scuotimento sismico del suolo. Il fenomeno

è fondamentalmente regolato dal rapporto esistente tra le caratteristiche

Page 34: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

34

geometriche della copertura sedimentaria (spessore H) e dal contenuto in

frequenza dell’onda sismica. Il rapporto VS/H determina le frequenze per cui la

funzione di amplificazione raggiunge i massimi valori (nel caso teorico essa

tende all’∞), queste frequenze sono definite frequenze naturali υυυυn =4

)12( −−−−nH

VS

con n=1,2,3,…, ∞.

La risposta di un deposito sedimentario ad un’onda sismica risulta quindi

fortemente influenzata dalla frequenza naturale υυυυn del deposito sedimentario. La

situazione più pericolosa in termini di fenomeni di amplificazione si verifica

quando la frequenza di eccitazione υυυυ è pari ad una delle frequenze naturali di

vibrazione dello strato υυυυn. Quando si verifica tale condizione (υυυυ = υυυυn) si parla di

risonanza dello strato. Nella realtà il fenomeno è complicato dalle variazioni

non lineari delle caratteristiche del terreno che modificano anche l'andamento

delle onde sismiche. Il risultato è che la funzione di amplificazione dei terreni

reali è molto complicata, dipendendo dalla combinazione di molti parametri.

2.2.2.3.2 Gli effetti di bordo in valli alluvionali

Nel caso di valli alluvionali, oltre ai fenomeni citati precedentemente, è

necessario considerare due ulteriori effetti legati alla geometria particolare della

sezione valliva (effetti di bordo).

Il primo effetto è quello della focalizzazione delle onde sismiche in aree

prossime al bordo della valle a seguito dell’interferenza costruttiva delle onde

riflesse e rifratte. Il fenomeno è chiamato in causa in occasione di diversi eventi

sismici per spiegare i danni localizzati lungo strisce di terreno poste al margine

di valli alluvionali.

Il secondo effetto è quello prodotto dall’incidenza delle onde sismiche in

corrispondenza dell’interfaccia non orizzontale roccia-sedimento, al bordo della

valle, che determina la generazione di onde di superficie aventi direzione di

propagazione orizzontale e parallela alla superficie valliva. Le onde di

superficie, così generate, in presenza di una marcata differenza di impedenza tra

copertura sedimentaria e basamento roccioso, rimangono “intrappolate”

all’interno della valle e sono soggette a riflessioni multiple sui bordi della valle

Page 35: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

35

stessa. Il loro moto è limitato soltanto dallo smorzamento del terreno. Il risultato

è, anche in questo caso, un aumento degli effetti distruttivi provocati

dall’intensificazione dello scuotimento sismico del suolo. La caratteristica

peculiare delle onde di superficie è rappresentata dalla loro durata, generalmente

di decine di secondi, e dal lungo periodo di oscillazione. Queste peculiarità

possono avere importanti ripercussioni da un punto di vista ingegneristico, in

special modo nella definizione della vulnerabilità sismica di ponti, dighe, edifici

di elevata altezza e di altre strutture caratterizzate da elevati periodi naturali di

vibrazione (>0.5 s). Questi sono alcuni casi in cui sono possibili fenomeni di

risonanza.

Le valli alluvionali profonde (H/L>0.25, dove H è la profondità e L la

semilarghezza della valle) sono caratterizzate da fenomeni di interazione tra

onde di volume e di superficie decisamente più complessi rispetto a quelli delle

valli superficiali (H/L<0.25). In entrambi i casi deve essere comunque

sottolineato che le marcate differenze di risposta locale esistenti tra le diverse

posizioni della valle possono determinare movimenti differenziali del terreno

con rilevanti implicazioni applicative per la progettazione antisismica.

2.2.2.3.3 Gli effetti della topografia

Oltre alle caratteristiche proprie delle diverse litologie, nelle condizioni di sito

vanno annoverate anche le particolarità geomorfologiche dell’area e della

superficie topografica stessa. Gli effetti topografici spiegano l’amplificazione

locale delle ampiezze dei movimenti del suolo che a volte si riscontrano in

presenza di cime, rilievi particolari, dorsali. In questi casi i fenomeni di

risonanza ed amplificazione sono dovuti a forme del paesaggio che favoriscono

riflessioni costruttive delle onde sismiche. L’effetto è particolarmente efficace in

presenza di creste rocciose. È questo uno dei casi, non sempre generalizzabile,

in cui risulta una maggiore pericolosità sismica per costruzioni su roccia rispetto

a quelle edificate su suolo.

È stato notato che l’amplificazione delle onde sismiche in presenza di cime è

un fenomeno dipendente dalla frequenza e che i massimi effetti si hanno quando

la lunghezza d’onda della sollecitazione sismica è circa confrontabile con la

Page 36: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

36

larghezza del rilievo. L’effetto è più intenso per moti orizzontali. Alla base del

rilievo si ha invece un’attenuazione maggiore delle ampiezze determinando tra

base e cima sensibili differenze di scuotimento.

Le attuali conoscenze sugli effetti della topografia sono ancora molto limitate e

per certi versi contraddittorie soprattutto per quanto riguarda la valutazione

quantitativa di tali effetti. Le principali indicazioni ricavate da studi sperimentali

e teorici riguardanti gli effetti topografici sono le seguenti:

• Alla sommità di un’irregolarità topografica lo scuotimento sismico è

amplificato rispetto a quello della base;

• Esiste una relazione tra i fenomeni di amplificazione alla sommità di

un’irregolarità topografica e le caratteristiche geometriche dell’irregolarità

stessa. In particolare, tali fenomeni si verificano quando la lunghezza

dell’onda sismica incidente è comparabile con la larghezza della base

dell’irregolarità.

• L’entità dei fenomeni di amplificazione è correlata alla forma

dell’irregolarità topografica: maggiore è il fattore di forma H/L (i.e. rapporto

tra altezza dell’irregolarità H, rispetto alla base, e la semilarghezza L

dell’irregolarità), più elevata è l’amplificazione alla sua sommità;

• Non esiste, invece, un accordo quantitativo tra i risultati delle modellazioni e

le osservazioni sperimentali: generalmente i rapporti di amplificazione

misurati sono molto maggiori di quelli teorici.

In conclusione gli effetti topografici sono molto complessi, variano da caso a

caso, e non sono stimabili accuratamente. Per queste ragioni gli effetti

topografici sono di solito tralasciati nelle analisi di pericolosità sismica.

2.2.2.3.4 La liquefazione sismica del terreno

Tra gli effetti più distruttivi dei terremoti si annoverano quelli causati dal

fenomeno della liquefazione sismica del terreno. Questa è la causa dei danni

più importanti alle strutture costruite secondo le normative antisismiche. La

liquefazione lascia gli edifici intatti ma li fa vistosamente inclinare su di un

fianco o lo fa sprofondare per buona parte nel terreno (si veda la foto nel

frontespizio), fa emergere serbatoi di idrocarburi originariamente interrati, ecc.

Page 37: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

37

La liquefazione sismica è un processo che altera le proprietà di resistenza

meccanica del suolo rendendolo simile ad un fluido viscoso. Questa perdita di

resistenza dei terreni saturi, posti cioè al di sotto del livello della falda acquifera,

si ha in conseguenza di sollecitazioni meccaniche statiche o dinamiche. Ciò

avviene solitamente nei depositi di sabbie sciolte fini (diametro dei clasti da 0.05

a 1.5 mm) sotto l’azione di carichi applicati o forze idrodinamiche, indotte dalle

onde sismiche, tali da provocare un aumento progressivo della pressione

dell’acqua che pervade i pori del sedimento. Quando questa pressione, detta

interstiziale, uguaglia la pressione di confinamento (quella a cui è sottoposto un

volume unitario di sedimento) la resistenza al taglio si riduce a zero ed il terreno

perde ogni resistenza meccanica. L’effetto finale prevede una compattazione del

terreno dovuta ad una diminuzione del volume dei pori.

Il fenomeno della liquefazione è direttamente controllato dalla granulometria

del sedimento interessato dalla sollecitazione sismica. La dimensione delle

particelle ha un duplice effetto, il primo è quello di determinare il tipo di forze

che le legano le une alle altre, il secondo è quello di definire la dimensione dei

pori del sedimento e quindi la sua capacità drenante.

La classe granulometrica dei sedimenti suscettibili di liquefazione (diametro

dei clasti da 0.05 a 1.5 mm) è correlabile alle dimensioni massime dei granuli

tali da rendere ininfluenti le cariche elettrostatiche superficiali che determinano

la coesività dei terreni coerenti. Il fenomeno è tipico delle argille che sono

composte da frammenti di minerali argillosi di dimensioni inferiori ai 0.004 mm

(4 µm). Le caratteristiche cristallografiche dei minerali che compongono le

argille (smectiti, illiti, montmorilloniti, ecc.) determinano uno spaiamento delle

cariche elettriche sulla superficie delle particelle che, in ossequio alle leggi

dell'elettrostatica, sono in grado di produrre una attrazione elettrostatica. È

questa forza che conferisce alle argille la sua caratteristica "adesività", proprietà

che invece non è posseduta dalle sabbie (diametro dei clasti maggiori di 0.06

mm) la cui unica forza che lega un granulo all'altro è quella d'attrito. I sedimenti

di questo tipo sono definiti incoerenti. Il legame elettrostatico, dipendendo dal

quadrato della distanza tra due particelle, diminuisce molto rapidamente se

queste vengono allontanate (ad esempio un raddoppio della distanza comporta

un indebolimento di quattro volte della forza elettrostatica del legame).

L'allontanamento delle particelle può essere provocato da un aumento della

Page 38: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

38

pressione dell'acqua interstiziale che pervade i sedimenti saturi. La

sollecitazione sismica è spesso la causa della sovrappressione. L’eliminazione

della sovrappressione interstiziale è regolata anch’essa dalla dimensione dei

clasti. Granuli di dimensioni maggiori, lasciando spazi vuoti più grandi anche se

in minore numero per unità di volume, favoriscono una maggiore velocità di

drenaggio e quindi una più rapida eliminazione della sovrappressione. In questo

modo, la resistenza al taglio del sedimento, pur abbassandosi, non arriva ad

annullarsi e non porta quindi alla liquefazione del sedimento. Pertanto le

granulometrie corrispondenti alle ghiaie (clasti centimetrici) non danno luogo a

liquefazione perché la sovrappressione di origine sismica è immediatamente

dissipata per le dimensioni centimetriche dei pori. All’estremo opposto, nelle

argille non si ha liquefazione perché le dimensioni micrometriche dei pori

determinano una permeabilità così bassa che la sovrappressione non ha il tempo

di diffondersi nell’intero sedimento sedimento.

I terreni più suscettibili di liquefazione sono quindi quelli incoerenti in cui la

resistenza alla deformazione è dovuta principalmente all'attrito tra i clasti.

Nei depositi incoerenti saturi esistono tre meccanismi di liquefazione:

a) Liquefazione per filtrazione. Il terreno diventa instabile per la variazione

dei livelli di falda che provocano filtrazione di acqua dal basso. Il fenomeno

è legato ad un gradiente idraulico. Si ha in dighe in terra e argini; è un

fenomeno diverso da quello che si ha in condizioni sismiche per effetto di

sollecitazioni cicliche.

b) Liquefazione per effetto di carichi monotòni crescenti. La liquefazione si

ha per deformazioni volumetriche date da contrazioni dello scheletro solido

dei terreni incoerenti saturi ad elevata porosità iniziale, sotto l’azione di

carichi crescenti in condizioni non drenate (la pressione interstiziale non può

liberarsi).

c) liquefazione per effetto di carichi ciclici. È dovuta alla tendenza delle

sabbie a contrarsi sotto l’effetto delle vibrazioni. È il fenomeno più

complesso per il numero elevato di fattori che lo governano. Sotto carichi

ciclici la liquefazione può essere una condizione temporanea, seguita da un

recupero di resistenza, ma anche una condizione finale caratterizzata da

deformazione illimitata che comporta una totale perdita di capacità portante

del terreno.

Page 39: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

39

La liquefazione può essere prodotta da sforzi ciclici completamente o

parzialmente alternati, prodotti da forze ad andamento regolare continuo o

irregolare (artificiali), più o meno prolungate nel tempo, o da carichi transitori

quali esplosioni o terremoti. Partendo dalla constatazione che le sabbie soggette

a vibrazioni tendono a compattarsi, un sedimento in condizioni non drenate,

sottoposto a sollecitazioni cicliche per un tempo sufficiente, determinerà una

competizione tra due processi che comportano rispettivamente uno la tendenza a

ridurre il volume totale del sedimento e uno a produrre una dilatazione dello

scheletro solido del medesimo. Questi processi avvengono in modo alternato

fino a che la pressione efficace non si annulla azzerando la resistenza al taglio.

Quando ciò avviene il mezzo si comporterà come un fluido dando luogo a

grandi deformazioni. L’ultima fase del processo prevede una compattazione

finale e l’assunzione di una struttura più stabile.

Un fattore determinante per il verificarsi o meno della liquefazione è la durata

della sollecitazione sismica. I fenomeni che innescano il processo non sono

istantanei, l’annullamento della resistenza al taglio si ha se la durata della

sollecitazione è tale da superare la capacità della porosità del terreno di dissipare

l’incremento di pressione interstiziale. Perciò, la liquefazione può avvenire solo

se la sollecitazione sismica ha una certa durata. La rapida diminuzione della

resistenza al taglio del suolo, che si ha nel processo di liquefazione, può essere

innescata da un altrettanto rapido cambiamento della frequenza di oscillazione

delle onde sismiche. In questo caso è il passaggio da onde di breve periodo ed

alta frequenza ad onde di lungo periodo e bassa frequenza che rende il terreno

simile ad un fluido, la transizione è nettamente non lineare.

L’esposizione dei siti alla liquefazione è strettamente correlabile all’età del

deposito: terreni di fondovalle recenti, paludi, zone deltizie e costali, meandri di

fiumi, riempimenti detritici, ecc. sono i terreni più esposti, mentre la

liquefazione non è stata osservata in aree alluvionali antiche. Spesso la

liquefazione si ripete nei siti dove già si era verificata in passato anche con

effetti maggiori. In sintesi, si ha liquefazione nei seguenti casi:

• In pianura il fenomeno diventa importante per terremoti di magnitudo

maggiore a 6.0, con durata delle onde sismiche di almeno 15 s e

accelerazioni del suolo maggiori di 0.10g;

Page 40: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

40

• In depositi di delta fluviali e marini recenti, terreni di diporto, sedimenti

secondari con falda superficiale, vecchie paludi, vecchi meandri di fiume,

costituiti da materiali granulari fini, saturi, non consolidati, con densità

medio-bassa, con granulometria uniforme, tipicamente sabbie grossolane-fini

e limi (diametro clasti da 0.05 a 1.5 mm);

• Negli strati più superficiali, poiché la liquefazione difficilmente interessa

profondità superiori a 15÷20 m;

• In presenza di basse percentuali di argilla o ghiaia. Percentuali alte,

determinando rispettivamente un certo grado di cementazione tra i clasti e un

aumento delle dimensioni dei pori, limitano la suscettibilità alla liquefazione

dei depositi sedimentari;

• In assenza di strati superficiali non liquefacibili che, se di spessore maggiore

3m, possono contrastare la liquefazione degli strati.

• In un sito le liquefazioni possono essere ripetute e l’effetto di densificazione

non sempre è sufficiente ad impedire il ripetersi del fenomeno.

Page 41: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

41

3. La Pericolosità sismica

3.1 Introduzione: le metodologie per la stima della

pericolosità sismica

La pericolosità sismica, definita come la probabilità che, in un determinato

intervallo di tempo (detto di esposizione), si verifichi in un dato luogo un

terremoto capace di causare danni, può essere valutata sia sulla base di metodi

deterministici sia mediante approcci di tipo statistico/probabilistico. Il primo

tipo di approccio tenta di definire la pericolosità sismica a partire da una

modellazione qualitativa del processo sismogenetico. Per essere efficace questo

tipo di approccio necessita di una notevole mole di informazioni affidabili circa

le caratteristiche delle sorgenti sismiche, dei processi di propagazione

dell’energia e sulle presenze di possibili effetti di sito. Attualmente, a causa di

un’incompleta caratterizzazione dei processi fisici all’origine dei terremoti, i

metodi deterministici trovano scarsa applicazione. Alla base delle tecniche

statistiche è la teoria della probabilità che trova applicazione laddove il

fenomeno studiato (in questo caso la sismicità) abbia un andamento non

prevedibile sulla base delle variabili che lo caratterizzano. Essendo in grado di

tenere conto delle incertezze derivanti da un’incompleta conoscenza del

processo sismico, i metodi statistici risultano di gran lunga quelli più utilizzati a

scala mondiale.

3.2 L’approccio deterministico

L’Analisi Deterministica parte dalla “previsione” dei singoli eventi per

stimare la pericolosità sismica sul territorio. Un esempio dei risultati di

un’analisi deterministica è il seguente: il massimo terremoto atteso al sito X sarà

caratterizzato da un’accelerazione di picco del suolo di 0.5g come effetto di un

sisma di magnitudo 6.5 con sorgente localizzata nella faglia Y distante 10 Km

Page 42: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

42

dal sito di studio. Occorre quindi “prevedere” la sorgente sismica (faglia Y),

l’energia rilasciata dal terremoto massimo che essa può produrre nel tempo di

esposizione (magnitudo 6.5) e lo scuotimento del suolo, in termini di

accelerazione di picco, considerando l’attenuazione determinata dai 10 Km di

crosta che separano la faglia Y dal sito X.

Il procedimento può essere sintetizzato nei seguenti passaggi:

I. Definizione delle sorgenti sismiche. Sono considerate tali le strutture

geologiche potenzialmente sismogenetiche e definite in termini di faglie,

oppure, in mancanza di precise informazioni, come zone di varia

estensione areale. Le sorgenti possono quindi essere approssimate come

punti, linee o volumi secondo la precisione decrescente con cui è possibile

definirle.

II. Identificazione del potenziale di ogni sorgente. Questo è definito in

termini di massimo terremoto atteso (o terremoto di progetto) e cioè

del terremoto più forte plausibilmente associabile ad una data sorgente

sismica nel tempo di esposizione.

III. Quantificazione delle sollecitazioni del terremoto. Espresse di solito in

termini di accelerazione attesa attraverso la definizione di funzioni di

attenuazione con cui riportare al sito le sollecitazioni che si producono

alla sorgente.

3.2.1 La caratterizzazione delle strutture sismogenetiche

Assodato che i terremoti sono generati dalle faglie, non sempre è possibile

identificare con sicurezza quali faglie siano in grado di generarne e quali no. Per

ovviare alla mancanza di informazione sulle singole, si considerano le strutture

composte da più faglie “pericolose”. Sono definite strutture localizzate quelle

in cui sono chiaramente individuabili le faglie responsabili di terremoti. Una

zona sismogenetica è invece definita come un’area in cui non sono palesemente

individuabili faglie attive o strutture localizzate, e in cui il potenziale

sismogenetico si assume distribuito uniformemente su tutta l’area.

Page 43: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

43

3.2.1.1 Le Strutture localizzate

Il primo passo di un’analisi deterministica prevede il riconoscimento e la

localizzazione delle sorgenti sismiche. Il riconoscimento delle strutture di faglia

o degli indizi della loro presenza avviene di solito con i seguenti criteri:

I. Evidenze direttamente osservabili di superfici e indicatori di frattura;

come specchi di faglia, strie di frizione, breccia di faglia, ecc.

II. Evidenze geologiche del movimento relativo dei due lembi di faglia;

come discontinuità o troncature di strati, contatti discordanti tra unità

stratigrafiche diverse o coeve.

III. Evidenze topografiche o geomorfologiche; come presenza di scarpate,

deformazioni del suolo o cambiamenti nella morfologia del paesaggio.

IV. Strutture geologiche secondarie; come variazioni nel livello della falda

freatica, variazioni dei parametri geochimici, allineamento di sorgenti

calde.

V. Lineamenti individuati con tecniche di telerilevamento; che possono

essere suggerite dalle strutture lineari individuabili da foto aeree o da

satellite.

VI. Indicatori geofisici di superfici di faglia; e cioè anomalie di gravità,

geomagnetiche, geoelettriche o cambiamenti repentini nelle velocità di

propagazione delle onde sismiche.

VII. Indicatori geodetici; e cioè movimenti relativi di capisaldi o rotazioni

anomale del suolo.

VIII. Sismicità; e cioè allineamento degli epicentri o distribuzione planare

degli ipocentri.

Accertata l’esistenza della faglia questa deve essere identificata come attiva e

cioè ancora in grado di produrre terremoti. In quest’ultimo caso la faglia può

essere definita faglia pericolosa se esibisce le seguenti caratteristiche:

1) Movimenti della stessa negli ultimi 35.000 anni o movimenti di natura

ricorrente negli ultimi 500.000 anni.

2) Sismicità, determinata per via strumentale direttamente correlabile ad essa.

3) Relazioni geofisico-strutturali con faglie che soddisfano le caratteristiche

1) e 2).

Page 44: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

44

Esistono diversi stadi intermedi tra lo stato attivo e inattivo di una faglia.

Questi sono: attività potenziale, attività incerta, attività provvisoria e inattività

provvisoria. L’unica categoria di faglie tralasciata nell’analisi di pericolosità,

perché non considerata fonte di rischio, è quella delle faglie inattive.

Un importante parametro che lega la sismicità e lo stato di attività di una faglia

è il tempo medio di ritorno, definito come l’intervallo medio tra il ripetersi di

due eventi di data grandezza nella medesima faglia. Molto spesso la lunghezza

di questo intervallo è subordinata alla disponibilità di dati storici. Un aiuto nella

ricerca di eventi sempre più addietro nel tempo è fornito dalla paleosismica.

Evidenze geologiche di terremoti passati possono essere forniti dal

riconoscimento di particolari depositi sabbiosi associabili a fenomeni di

liquefazione del terreno.

3.2.1.2 La zona sismogenetica

L’estensione di una zona sismogenetica è definita in base ad una

concentrazione di terremoti collegabili ad un medesimo raggruppamento

(cluster) rispetto alle regioni circostanti. Ad ogni punto della zona sismogenetica

è assegnata la medesima capacità di generare terremoti. Ogni individuazione di

strutture localizzate diminuisce l’equipotenzialità della provincia a favore della

localizzazione di potenziali sorgenti. Normalmente le zone sismogenetiche sono

individuate nelle regioni situate tra le principali strutture tettoniche. Le zone

sismogenetiche sono definite in base ai seguenti tipi di dati:

• Geologici; e cioè dalle carte geologiche, nonché dalla lettura della

geomorfologia dell’area di studio, da cui è possibile risalire alla storia

geologica che ha portato all’attuale assetto regionale.

• Tettonici; e cioè dall’assetto strutturale dell’area di studio, raccogliendo i

terremoti accomunati dalla stessa area di origine e da meccanismi focali

compatibili. Particolare peso è dato alle strutture legate alla neotettonica, e

cioè prodotte dai terremoti più recenti.

• Geofisici; che forniscono informazione sulla struttura del sottosuolo a diversi

Km di profondità. Le anomalie di gravità, legate a contrasti di densità e

concentrazioni di massa, evidenziano le strutture di maggiori dimensioni. Le

Page 45: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

45

anomalie magnetiche, segnalando la presenza di corpi rocciosi di diversa

proprietà magnetica rispetto a quelle della roccia incassante, evidenziano

possibili contatti tra rocce di diverso tipo, come spesso avviene tra i due

lembi di faglia. Le misure geodetiche possono indicare variazioni di quote

topografiche o di posizioni di capisaldi in seguito al movimento di strutture

sismogenetiche non superficiali. Gli strumenti principali per l’individuazione

di strutture profonde nelle provincie sismotettoniche sono la propagazione

sismica a rifrazione e quella a riflessione che permettono di identificare

forme e dimensioni delle strutture subcrostali e quindi anche delle faglie

“pericolose”.

• Campi di sforzo. Una tecnica recente, da misure in pozzo, permette di

quantificare direttamente il campo di sforzo in termini di intensità e

direzione. Questi dati permettono di stimare il tasso con cui l’energia elastica

si accumula e sul come verrà liberata.

• Sismici; e cioè le registrazioni storiche e strumentali della sismicità che

permettono di delimitare i confini delle zone sismogenetiche.

3.2.2 Il terremoto massimo atteso

Definite le sorgenti sismiche, lo schema dell’analisi deterministica (par. 3.2)

prevede la definizione del terremoto di progetto, o massimo terremoto atteso.

In questa fase si stima la grandezza del massimo terremoto associabile ad ogni

faglia, struttura localizzata o provincia sismotettonica attiva.

Il massimo terremoto che descrive più appropriatamente il potenziale sismico

di una sorgente sismica può essere definito in diversi modi:

• Il massimo terremoto possibile, che definisce il limite superiore

dell’energia che la struttura può rilasciare in un terremoto, determinato in

base alla tipologia della sorgente sismica. Rappresenta il parametro

maggiormente utilizzato nelle analisi deterministiche.

• Il massimo terremoto credibile, che viene utilizzato quando le conoscenze

sulle caratteristiche della sorgente permettono una migliore definizione del

più grande evento ad essa associabile. Suoi sinonimi sono massimo

terremoto atteso o massimo terremoto probabile.

Page 46: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

46

• Il massimo terremoto storico, che è applicabile quando si ha a disposizione

un numero di dati storici sufficiente. Costituisce il limite inferiore della

dimensione del terremoto atteso associabile alla sorgente sismica.

La stessa fisica della sorgente sismica può fornire un’indicazione sulla stima

del massimo terremoto. Ricordando la definizione del momento sismico (eq.

2.1) ed il modello di faglia di Brune (par. 2.2.2.1), la magnitudo M di un

terremoto può essere correlata alle dimensioni della faglia secondo la seguente

equazione

M = 7

16

2

2

ΦΦΦΦ ∆∆∆∆σσσσ

dove 2

ΦΦΦΦ è il raggio della faglia supposta circolare, ∆∆∆∆σσσσ è lo stress drop, e cioè la

caduta di sforzo durante il sisma. Dall’equazione si può dedurre che, a parità di

∆∆∆∆σσσσ, più è grande la faglia maggiore è il momento sismico associato e l’energia

liberata nel terremoto.

Per situazioni geometricamente più complesse è necessario ricorrere a relazioni

di tipo empirico che mettono in relazione le caratteristiche geometriche delle

strutture attive, come lunghezza e movimento relativo dei lembi di faglia, con il

momento sismico del terremoto massimo.

L’estensione di una struttura sismogenetica viene efficacemente stimata

dall’estensione delle repliche (aftershock), che sono i terremoti che seguono

l’evento principale (mainshock) erroneamente definite “scosse d’assestamento”.

Le repliche sono ritenute responsabili della liberazione d’energia non

completamente rilasciata dall’evento sismico principale e la loro posizione

definisce al meglio l’estensione areale della superficie di frattura. La ripetizione,

nella stessa faglia, di eventi di intensità confrontabile con il massimo terremoto

definiscono il terremoto caratteristico.

La stima del massimo terremoto può essere fatta utilizzando le seguenti

caratteristiche geometriche delle faglie:

• Lunghezza in affioramento. Da questa è possibile ricavare la magnitudo

attesa tramite un’equazione empirica. Le difficoltà vengono dalla

ricostruzione della lunghezza totale di faglia come sommatoria di più

segmenti la cui attribuzione al medesimo evento non è sempre certa e

Page 47: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

47

condizionata da variabili geometriche, meccaniche e di isotropia delle

caratteristiche della roccia.

• Area di frattura. L’area della superficie di frattura, direttamente correlabile

al momento sismico, è legata alla magnitudo del terremoto. Mentre la

lunghezza è stimabile, quando possibile, direttamente sul terreno, la

larghezza può essere assunta dai valori determinati per terremoti simili della

medesima regione. Una relazione valida in molti contesti tettonici è la

seguente:

log sr = M - 4.15 (M>5.6)

dove M è la magnitudo stimata e sr è l’area di rottura in Km2.

• Rigetto o spostamento. Lo spostamento relativo tra i due lembi della faglia

rappresenta un altro fattore direttamente correlato al momento sismico di un

terremoto. Il massimo rigetto osservabile in superficie viene assunto come lo

spostamento medio associato all’equazione del momento sismico (eq. 2.1)

con un intervallo d’incertezza del 30-50%. Importante è il riconoscimento del

tipo di faglia e del movimento relativo dei due lembi (letto e tetto).

• Tasso di spostamento. È la velocità con cui si muove una faglia,

normalmente espressa come media annua. Viene determinato misurando il

movimento totale lungo la faglia e dividendolo per il tempo impiegato a

percorrerlo. In questo modo si mediano i movimenti lenti (asismici), e quelli

rapidi (sismici) che potrebbero costituire la parte preponderante dello

spostamento totale. Si assume che faglie ad alto tasso di spostamento

implichino un’alta sismicità.

3.2.3 La determinazione dello scuotimento sismico atteso

La stima dei movimenti sismici del suolo, per gli scopi dell’analisi di

pericolosità sismica, deve essere effettuata con tecniche semplici che si prestino

ad essere applicate in contesti differenti anche in assenza di informazioni

dettagliate sul processo sismogenetico e sulle modalità di propagazione

dell’energia sismica, ma sostenute da basi teoriche o empiriche valide. In

generale, questo problema può essere affrontato partendo dalla modellazione

Page 48: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

48

fisica del processo di propagazione, basato su di una parametrizzazione più o

meno completa del processo fisico, oppure su base empirica a partire dai dati

osservati.

3.2.3.1 L’approccio teorico

Esistono due tipi di modellazione teorica del moto sismico del suolo: la

modellazione dinamica e la modellazione cinematica.

I modelli dinamici si basano sulla definizione delle forze fisiche, tettoniche o

meno, che creano i regimi di sforzo e di attrito sulle superfici di frattura. Per

descrivere questi regimi vengono utilizzate equazioni matematiche.

I modelli cinematici non considerano lo stato di sforzo ma le condizioni

statiche iniziali (la posizione e l’orientamento) del processo di propagazione

della superficie di rottura (dislocazione). Il moto sismico della superficie è

conseguenza diretta della dislocazione. Un modello cinematico molto semplice

(diverso da quello di Brune precedentemente esposto par. 2.2.2.1), assumendo

una dislocazione uniforme che si propaga a velocità di rottura costante lungo

una superficie di faglia rettangolare, è in grado di fornire dati del moto del suolo

confrontabili con quelli misurati direttamente in regime di campo lontano. I

modelli cinematici, apparentemente semplicistici nelle assunzioni di partenza,

richiedono strumenti matematici tutt’altro che banali per ottenere lo spostamento

finale della dislocazione dalle funzioni di scorrimento (slip function). Queste

funzioni, a partire dalle condizioni iniziali, descrivono le modalità di

spostamento delle diverse porzioni della superficie di faglia.

Per entrambe le procedure di modellazione, il calcolo dello scuotimento

sismico al sito viene effettuato mediante l’applicazione delle funzioni di Green,

funzioni che rappresentano in modo quantitativo le modalità di propagazione

dell’onda sismica a partire dalle caratteristiche strutturali del substrato

interessato.

Il principale limite dell’approccio teorico è la quantità di informazioni

(geometria della sorgente, modalità di propagazione della frattura, caratteristiche

strutturali del mezzo fra la sorgente ed il sito, ecc.) che è necessario fornire al

modello per la previsione dello scuotimento sismico atteso. Inoltre, quanto più si

Page 49: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

49

è interessati alle componenti in alta frequenza dello scuotimento sismico (ad

esempio per riprodurre il regime di campo vicino dello scuotimento) tanto più

dettagliate devono essere le conoscenze sui valori assunti dai vari parametri

fisici che influenzano il processo. Queste informazioni sono invece, per lo più,

ignote.

3.2.3.2 L’approccio empirico

Seguendo questo approccio, si rinuncia alla caratterizzazione dettagliata del

processo sismico e si tenta di valutare, su base esclusivamente empirica e

utilizzando leggi fenomenologiche, lo scuotimento sismico atteso partendo da un

numero di parametri fisici assai ristretto e che è possibile misurare.

La base di partenza di questo genere di approcci è la relazione (3.1) che lega il

logaritmo dell’accelerazione a , attesa al sito, alla magnitudo dell’evento

sismico (che rappresenta in qualche modo l’energia rilasciata alla sorgente) e

alla distanza del sito dalla sorgente. Come si è detto, questa relazione vale

rigorosamente solo nel caso ideale di una Terra isotropa. Più in generale si può

presumere che la forma funzionale f che lega i diversi parametri

all’accelerazione attesa a abbia una generica forma del tipo

ln a =f( M, r, ln r, ΓΓΓΓ ) (3.1)

dove r è la distanza dalla sorgente, M è la magnitudo e ΓΓΓΓ è un parametro

rappresentativo degli effetti di sito. f è in genere non lineare ed incognita.

Utilizzando però la formula di Taylor troncata al secondo ordine, la funzione

generica f può essere rappresentata nella forma:

εεεε++++++++++++++++++++++++++++++++++++==== 287

265

243

2210 )(lnlnˆln ΓΓΓΓΓΓΓΓ aararararaMaMaaa (3.2)

Le 9 costanti aj che compaiono nella (3.2), che rappresentano le derivate

parziali ed il termine noto, non possono essere calcolate direttamente dato che la

forma funzionale f è ignota. Questi parametri possono tuttavia essere stimati per

via empirica individuando i valori tra quelli che permettono di riprodurre le

accelerazioni effettivamente misurate, nota la distanza della sorgente dal punto

di misura, la magnitudo e il parametro di sito. È l’analisi statistica (detta di

regressione) a mettere eventualmente in evidenza la possibilità di ridurre la

complessità dell’equazione eliminando questa o quella variabile indipendente. Il

Page 50: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

50

termine εεεε rappresenta “il resto” dell’approssimazione di Taylor ed in termini

statistici può essere visto come l’incertezza associata alla stima

dell’accelerazione mediante la relazione empirica.

La qualità dei risultati finali è condizionata dalle limitazioni del campione dei

dati disponibili per l’analisi di regressione e dalle incertezze sui valori

sperimentali relativi alle variabili indipendenti: sorgente, percorsi di

propagazione delle onde sismiche e condizioni locali del sito.

Il parametro dimensione della sorgente è espresso dalla Magnitudo M ed è

importante scegliere la scala più adatta in relazione alla disponibilità locale di

dati e al fenomeno della saturazione. Tutt’altro che semplice è la scelta della

variabile indipendente r, cioè la distanza sito-sorgente. Questa può essere

misurata dall’ipocentro, dall’epicentro, dalla zona di massima concentrazione di

sforzi della faglia (asperità), dal punto più superficiale del piano di rottura o

dalla proiezione di questo sulla superficie topografica se la faglia non affiora.

Normalmente si considera come riferimento il punto appartenente alla struttura

sismogenetica considerata più vicino al sito in studio. Spesso questo punto di

riferimento si trova al limite tra la copertura sedimentaria ed il basamento

cristallino sottostante. Nel caso in cui sito e sorgente siano molto distanti, la

scelta di dove misurare la loro distanza genera un errore relativo trascurabile.

Come si è detto, il termine ΓΓΓΓ è legato alle condizioni di sito. La classificazione del substrato geologico, al di sotto del sito in studio, si limita spesso alla

distinzione fra la presenza di “roccia” o “suolo”. Nel migliore dei casi si

distingue ulteriormente fra depositi alluvionali profondi o superficiali. La

distinzione può essere eseguita secondo criteri geologici, in base alla lettura

delle carte geologiche della zona o con un rilevamento sul campo, oppure

seguendo criteri geotecnici che definiscono “roccia” una litologia in cui le onde

S si propagano con velocità maggiore di 825 m/s. Le caratteristiche di

propagazione delle diverse unità litologiche, variabili anche in relazione alla

forma geologica del corpo, influenzano direttamente i picchi di accelerazione

già a partire dalle misure accelerometriche. Il non considerare queste variazioni

locali conduce a risultati inaccurati in quanto picchi anomali possono essere

direttamente correlati con una particolare litologia al di sotto del sito di misura.

Sperimentalmente si è rilevato che, in presenza di spessori di suolo variabili tra i

dieci e venti metri, si riscontrano i maggiori valori nei picchi di accelerazione e

Page 51: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

51

velocità. Questi picchi sono particolarmente elevati alle basse frequenze dove gli

effetti di smorzamento sono minimi.

Un approccio alternativo all’uso del parametro ΓΓΓΓ nella legge di attenuazione è quello di utilizzare questa senza il parametro di sito per una stima

dell’accelerazione di picco. Questa, viene poi utilizzata come fattore di scala

applicato a spettri di risposta standard validi per le diverse configurazioni

strutturali al di sotto del sito di interesse.

I parametri dedotti dall’analisi empirica risultano dipendenti dal tipo di faglia

coinvolta e dal contesto tettonico in cui essa si trova. Si osserva, normalmente,

che in regime tettonico “compressivo” i picchi di accelerazione sismica sono

tripli, mentre quelli di velocità doppi, rispetto ai corrispondenti valori

riscontrabili in un regime tettonico “distensivo”.

Nella parametrizzazione empirica dell’equazione (3.1) è importante specificare

se i dati di moto del suolo sono correlati con accelerazioni orizzontali o verticali

in quanto i picchi raggiunti nelle tre direzioni spaziali possono essere molto

differenti.

Anche se l’approccio empirico appare invitante, in realtà presenta dei seri

limiti. Innanzi tutto, nonostante il suo carattere lineare, la funzione empirica

(3.1) risulta di difficile parametrizzazione a causa di una serie di fenomeni

statistici che rendono numericamente assai instabili i risultati della regressione.

Infatti, l’analisi condotta da diversi autori su banche dati differenti ha prodotto

stime assai differenti dei parametri presenti nella relazione. Risulta poi assai

difficile la valutazione del livello di incertezza associato alle stime fornite a

causa della particolare distribuzione dei residui.

In generale, abbastanza ottimisticamente, le relazioni empiriche tipo la (3.1)

sono considerate attendibili in presenza di terremoti di magnitudo ≥5.0 e distanti

meno di 50 Km, comunque in condizioni di campo vicino.

3.2.3.3 Gli approcci misti

Le conoscenze incomplete delle proprietà locali d’attenuazione, della

distribuzione dell’entità di scuotimento e di altri parametri, possono essere

migliorati con un approccio che, utilizzando i dati disponibili, sopperisca con la

Page 52: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

52

modellizzazione teorica a quelli mancanti. Questa combinazione deterministica

di metodi empirici e simulazioni numeriche, definiti metodi misti, tenta di

sopperire all’inapplicabilità del metodo deterministico “puro”.

Il metodo semi-teorico è il più semplice. A parità di parametri (magnitudo,

distanza sorgente-sito, effetti locali, ecc.), la stima del moto del suolo viene fatta

considerando i valori di smorzamento che riproducono in modo più attendibile

gli scuotimenti registrati in passato nell’area in esame.

È stato proposto anche un approccio semi-empirico. Partendo da una sorgente

di riferimento semplificata, pertanto modellizzabile analiticamente, vengono

sviluppate relazioni empiriche che quantificano il picco del moto del suolo in

funzione della magnitudo e della distanza. Per l’applicazione di questo

approccio si devono avere informazioni sui parametri d’attenuazione da

calibrare in funzione dell’entità di scuotimento risentiti nell’area di studio.

Il più potente approccio misto per stimare il moto sismico del suolo è chiamato

a vibrazione casuale (random vibration), detto anche metodo stocastico

(stochastic method). La tecnica si basa sulla constatazione che la maggior parte

di un accelerogramma mostra una distribuzione pressoché casuale dei picchi di

massimo scuotimento associabili agli arrivi delle onde S. In pratica il metodo

parte da un segnale casuale (rumore bianco) che viene modificato mediante un

filtro numerico definito a partire da un modello di faglia.

Utilizzando questa tecnica è possibile generare segnali casuali con le stesse

caratteristiche spettrali di un segnale sismico. In questo modo possono essere

generati a piacere “terremoti” artificiali per ciascuno dei quali è possibile

calcolare la massima accelerazione. Ripetendo le simulazioni è possibile

valutare le frequenze relative dei diversi valori di picco e valutare quale sia il

valore più attendibile.

Per la loro diretta dipendenza dai parametri fisici che condizionano i fenomeni

di propagazione delle onde sismiche, i metodi stocastici di questo tipo sono

molto considerati. Il loro limite principale è legato alla necessità di conoscere

diversi dettagli della sorgente sismica in mancanza dei quali diventa molto

difficile ottenere risultati attendibili.

Page 53: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

53

3.2.4 I vantaggi ed i limiti dell’approccio deterministico

Nei precedenti paragrafi sono state evidenziate le difficoltà connesse alla stima

dello scuotimento sismico atteso. Questo parametro costituisce in realtà solo un

elemento del processo di definizione della pericolosità sismica. In particolare, la

valutazione dello scuotimento assume nota l’occorrenza di un evento sismico

con caratteristiche e geometria definite. In generale, sebbene sia possibile

formulare diverse ipotesi sul terremoto atteso, le caratteristiche di quest’ultimo

risultano ignote. È quindi necessario valutare la probabilità che uno dei possibili

eventi sismici, capaci di produrre danni al sito di interesse, si verifichi durante il

tempo di esposizione. Una stima di questo tipo richiede una conoscenza

dettagliata delle possibili sorgenti sismiche, delle sollecitazioni a cui esse sono

sottoposte, della loro storia deformativa, ecc. In generale, queste conoscenze non

sono disponibili per i siti di interesse. Queste incertezze si sommano a quelle

elencate relative alla valutazione dello scuotimento sismico. In pratica ogni

elemento che entra nell’analisi di rischio sismico è inevitabilmente affetto da

un’incertezza. Nella definizione delle sorgenti sismiche, coinvolte nello studio,

gli approcci possibili per ovviare le incertezze possono essere di tipo

“conservativo”, optando cioè per il peggiore scenario sismico prevedibile o con

un approccio che si basi solo sulle informazioni evidenti e sicure ricavabili

sperimentalmente. La prima procedura fornisce risultati privi di ambiguità, come

richiesto da chi deve poi prendere decisioni pratiche, ma può condurre anche a

risultati inutilizzabili. Questo perché le soluzioni, derivanti dall’utilizzo del

peggiore evento possibile, spesso non sono applicabili per i costi eccessivi. Il

secondo approccio che dà maggior peso ai dati sicuri o verificabili, è più

scientifico e razionale, ma è limitato dallo stato delle conoscenze.

Tra gli svantaggi del metodo deterministico vi è quello di non considerare

esplicitamente i margini d’errore che tutti i dati e parametri utilizzati

immancabilmente possiedono. Queste incertezze colpiscono particolarmente la

stima della magnitudo del massimo terremoto e la stima del moto sismico del

suolo. Un altro svantaggio del metodo deterministico è che la distribuzione nel

tempo dei terremoti non è esplicitamente considerata. La pericolosità assegnata

dall’analisi deterministica a due aree sismogeniche è uguale, a parità di

Page 54: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

54

magnitudo del massimo terremoto possibile, anche se i tempi medi di ritorno

sono molto diversi.

Il principale vantaggio di un’analisi deterministica basata sulla descrizione dei

peggiori scenari sismici prevedibili, è quello di fornire i parametri fisici che li

descrivono, dando risultati direttamente interpretabili e utilizzabili nelle

applicazioni ingegneristiche.

Page 55: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

55

3.3 L’approccio probabilistico

3.3.1 Aspetti generali

Il risultato dell’analisi probabilistica di pericolosità sismica non è la singola

descrizione del peggiore scenario possibile, come nell’approccio deterministico,

ma la probabilità che si verifichi lo scenario corrispondente ad intensità variabili

da una minima sino alla massima possibile. La probabilità assegnata ad ogni

intensità o magnitudo, ritenuta possibile per il sito in studio, diventa un

parametro fondamentale nell’approccio probabilistico, a differenza del metodo

deterministico che considera solo l’evento più sfavorevole. In questo modo è

possibile definire il valore di soglia del parametro di scuotimento (accelerazione,

velocità o massimo spostamento del suolo) ritenuto probabile e su questa base, a

partire dalle stime di vulnerabilità ed esposizione, si potranno sostenere le scelte

dei provvedimenti e delle soluzioni da adottare sul territorio studiato.

La premessa essenziale di ogni approccio probabilistico alla pericolosità è

l’assunzione che la storia sismica passata, ovvero la successione degli eventi

sismici di cui si ha notizia, possa essere utilizzata per caratterizzare la sismicità

futura nell’area di interesse. Questo equivale ad assumere che il processo

sismogenetico è stazionario, ovvero, che sia possibile caratterizzarlo mediante

una parametrizzazione di tipo statistico che rimane invariata nel tempo. In

questo genere di analisi quindi, i cataloghi sismici giocano un ruolo essenziale e

comunque assai maggiore di quello relativo alle conoscenze circa le proprietà

fisiche del processo sismogenetico.

La forma più comune con cui sono presentati i risultati dell’analisi

probabilistica della pericolosità sismica è l’insieme delle curve di probabilità

di eccedenza. Queste curve rappresentano le probabilità associate al

superamento di un determinato livello di scuotimento sismico, esprimibile con

diversi parametri (si veda il par. 2.2.1.3), nell’intervallo di esposizione. Da

queste curve è possibile dedurre lo scuotimento atteso, che è rappresento dal

valore dello scuotimento che ha una probabilità di essere superata inferiore al

10% durante il tempo di esposizione (di solito 50 anni). Nelle mappe di

pericolosità sono riportati solitamente i valori dello scuotimento atteso relativi

alle diverse località di una regione.

Page 56: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

56

3.3.2 La sismicità

La base di ogni analisi di pericolosità sismica è il concetto di sismicità, definita

come la distribuzione dei terremoti nel tempo e nello spazio. La sismicità di

un’area, definita dal numero totale di terremoti di ogni dimensione, può essere

definita dal numero di eventi di una determinata intensità, considerando ad

esempio solo il numero dei terremoti più distruttivi che sono avvenuti in un

preciso periodo di tempo. Quindi, l’espressione “alta sismicità” deve specificare

a quali parametri si riferisce per non generare ambiguità.

3.3.2.1 La sismicità strumentale

Lo scopo principale delle reti sismiche è quello di individuare e localizzare i

terremoti. Il processo richiede stime accurate di come i diversi tipi di onde (vedi

par 2.1.3) si propagano nei substrati geologici e con quali velocità. Date queste

conoscenze, è possibile calcolare la distanza tra la sorgente delle onde sismiche

e le stazioni in base ai loro tempi di arrivo. Noti la velocità a cui viaggiano le

diverse onde e quanto tempo hanno impiegato ad essere rilevate, la velocità,

moltiplicata per tempo d’arrivo, dà lo spazio tra la posizione del sismometro e

l’ipocentro del terremoto. Maggiore è il numero di misure disponibili e

maggiore è la precisione con cui si può tracciare la posizione epicentrale del

terremoto, espressa in termini di longitudine, latitudine e dimensioni dell’ellisse

di confidenza. Quest’ultima esprime la regione entro cui è possibile localizzare

la posizione dell’epicentro con una probabilità finita. Le dimensioni degli assi

dell’ellisse di confidenza sono proporzionali all’incertezza che esprimono. Le

principali fonti d’errore in questo procedimento sono costituite da:

• numero insufficiente o di bassa qualità delle registrazioni sismiche;

• posizionamento sfavorevole delle stazioni di rilevazione;

• scelta di un modello sbagliato delle velocità di propagazione;

• supposizione iniziale sbagliata di dove sia situato l’epicentro.

In Italia l'Istituto Nazionale di Geofisica (ING) svolge da molti anni il compito

di sorveglianza sismica del territorio nazionale attraverso una rete di sensori

collegati in tempo reale al centro di acquisizione dati di Roma. Lo scopo di tale

Page 57: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

57

rete è duplice: la comunicazione tempestiva agli organi di Protezione Civile dei

dati relativi alla localizzazione e all'entità di ogni evento sismico e la produzione

di informazioni scientifiche di base (localizzazione epicentrale, meccanismo

focale, magnitudo) per una migliore conoscenza dei processi fisici responsabili

dei terremoti nell’area italiana. La Rete Sismica Nazionale Centralizzata

(RSNC) è stata potenziata nel corso degli anni fino al raggiungimento della

configurazione attuale che è di circa 90 stazioni sismiche (vedi fig. 3.1) di cui 4

tridirezionali dotate di sensori verticali a corto periodo. La sensibilità di ogni

stazione sismica, cioè la magnitudo minima percepibile, è determinata dalla

distanza di percettibilità. Questa è definita come la distanza epicentrale

minima per la quale è possibile misurare il “primo arrivo” delle onde P con un

errore pari all’errore di sensibilità dello strumento con cui si misura il tempo sul

sismogramma. La distanza di percettibilità è funzione della magnitudo e del

rumore ambientale, la prima determina l’intensità del segnale, il secondo

condiziona la qualità della registrazione.

Page 58: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

58

Fig. 3.1 - Disposizione sul territorio italiano delle stazioni sismiche appartenenti alla Rete Sismica Nazionale

Centralizzata (RSNC).

Sul territorio italiano è inoltre attiva la Rete Accelerometrica Nazionale (RAN)

gestita dal Servizio Sismico Nazionale (SSN). È costituita da 260 accelerografi

(analogici e digitali) distribuiti su tutto il territorio nazionale ad eccezione della

Sardegna per la sua bassa sismicità (fig. 3.2). Le caratteristiche fisiche degli

accelerometri, cioè di non saturare in prossimità delle aree epicentrali, rendono

la RAN complementare alla rete sismica nazionale. I dati accelerometrici sono

importanti per l’individuazione degli effetti locali determinati dalla diversità di

litologia e dalle caratteristiche geomorfologiche del sito. La migliore conoscenza

delle variazioni areali e puntuali delle accelerazioni sismiche del suolo consente

una più efficiente stima delle sollecitazioni, a cui è sottoposto l’edificato, con

importanti ricadute nella prevenzione e progettazione antisismica.

Page 59: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

59

Fig. 3.2 - Distribuzione sul territorio nazionale delle postazioni accelerometriche appartenenti alla Rete

Accelerometrica Nazionale (RAN).

Osservando le figure 3.3 e 3.4, che riportano la posizione epicentrale

rispettivamente dei terremoti storici (1000-1980, dal catalogo NT) e dei

terremoti recenti (1981-1995, fonti ING), si può osservare come il numero dei

terremoti registrati in questi 14 anni si avvicini a quello dei terremoti storici

degli ultimi mille anni. Ciò è dovuto alla sensibilità delle moderne stazioni

sismiche che sono in grado di rilevare, con buona qualità segnale/rumore,

terremoti sino alla magnitudo 2.5. Questa sensibilità si raggiunge per i terremoti

con epicentro ubicato nella porzione del territorio nazionale che va dal nord

Italia fino al centro-sud, Puglia e Calabria escluse. L’effettiva utilità dei dati

sismici strumentali è però limitata dalla breve copertura temporale disponibile

che copre in modo soddisfacente, e nei casi più favorevoli, solo l’ultimo secolo.

Page 60: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

60

In questo senso la sismicità strumentale non costituisce una fonte informativa

sufficiente per una ricostruzione adeguata della storia sismica del territorio

nazionale, e che deve quindi essere effettuata ricorrendo ad informazioni di tipo

non strumentale dedotte da fonti storiografiche.

Fig. 3.3 - Epicentri di terremoti storici (1000-1980 dal catalogo NT), la posizione dell’epicentro è rappresentata

da un cerchietto di raggio proporzionale alla magnitudo del terremoto. Sono inoltre riportate le tracce degli elementi strutturali e cinematici di ordine maggiore.

Page 61: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

61

Fig. 3.4 – Epicentri di terremoti recenti (1981-1995 dal fonti ING), la posizione dell’epicentro è rappresentata da

un cerchietto di raggio proporzionale alla magnitudo del terremoto. Sono inoltre riportate le tracce degli elementi strutturali e cinematici di ordine maggiore.

3.3.2.2 La sismicità storica

La descrizione qualitativa dei terremoti distruttivi verificatisi in epoca storica,

prima dell’avvento della sismologia strumentale, assieme alle testimonianze

archeologiche, concorrono a definire la sismicità storica. Quest’enorme raccolta

di dati, di essenziale utilità per quantificare la pericolosità di un’area, costituisce

la parte non strumentale dei cataloghi sismici. Naturalmente più si arretra nel

tempo più l’affidabilità del catalogo diminuisce. Infatti le cronache riportano,

per lo più, solo i terremoti più distruttivi e con un affidabilità che peggiora a

ritroso nel tempo. È questo il problema dell’incompletezza dei cataloghi sismici

(par. 3.3.3.2.3). Il non considerare questo problema determina un rapporto

inesatto tra il numero dei terremoti forti e quelli modesti. Occorre poi associare

Page 62: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

62

un’incertezza alle descrizioni di effetti, durata e danni che i cronisti hanno

soggettivamente riportato filtrandoli con la loro cultura, epoca storica e fede

religiosa.

Fino alla fine del XIX secolo l’unico strumento disponibile per tentare un

approccio scientifico alla comprensione del fenomeno “terremoto” era

rappresentato dalla osservazione e successiva quantificazione degli effetti

prodotti da un sisma sull’ambiente naturale ed antropico.

In seguito, nel corso del Novecento, fino all’inizio degli anni Ottanta, i

notevoli e continui progressi scientifici e tecnologici compiuti in ambito

geofisico hanno portato a privilegiare alcuni aspetti fondamentali, quali la

strumentazione e la comprensione dei meccanismi fisici di sorgente, relegando

in secondo piano l’interesse nei confronti delle informazioni relative agli effetti

prodotti da un terremoto (osservazioni macrosismiche). Ciò che veniva rifiutato

era essenzialmente il carattere soggettivo dei dati macrosismici qualitativi, in

contrapposizione a quelli strumentali ritenuti oggettivi.

Al contrario, oggi è ormai una convinzione acquisita che l’utilizzo dei soli dati

strumentali, certamente indispensabili per la conoscenza dei meccanismi di

sorgente del terremoto e delle caratteristiche di moto del suolo, possa essere

fonte di notevoli manchevolezze e perfino di errori quando si intenda

caratterizzare la sismicità di una determinata regione nel lungo periodo. Ciò è

vero soprattutto per l’Italia dove, come suggerito anche da studi

paleosismologici, in quasi tutte le aree sismogenetiche i forti terremoti sono

caratterizzati da periodi di ritorno molto lunghi dell’ordine di decine di anni e

spesso di secoli.

È in base a queste considerazioni che negli ultimi venti anni si è assistito ad

una vera e propria “riscoperta” dell’importanza delle informazioni

macrosismiche, in particolare in Paesi come il nostro, dove la presenza

pressoché ininterrotta nel tempo di civiltà distribuite su ampia parte del territorio

(ad eccezione del periodo dell’Alto Medioevo, quando la raccolta e la

trasmissione di informazioni era comunque garantita dalla cultura monastica) ha

consentito di disporre oggi di un’inestimabile quantità di fonti documentarie.

Lo studio dei terremoti del passato è attualmente ritenuto uno strumento

indispensabile per tentare di caratterizzare la sismicità di un’area. Insieme agli

studi geologici e geofisici, infatti, le informazioni relative agli effetti dei

Page 63: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

63

terremoti nel lungo periodo possono guidare l’identificazione delle principali

strutture sismogenetiche rendendo così possibile la formulazione di ipotesi

sull’andamento dell’attività sismica e fornendo indicazioni probabilistiche

sull’occorrenza di eventi futuri.

Benché le scale macrosismiche stabiliscano criteri di valutazione in qualche

misura oggettivi, in realtà risulta spesso assai difficile attribuire un unico grado

di intensità. Frequenti sono, infatti, i casi in cui le osservazioni macrosismiche

forniscono indicazioni ambigue o addirittura contraddittorie: accanto a numerosi

indicatori di un determinato grado se ne possono riscontrare altri tipici dei gradi

inferiori o superiori. In queste circostanze, qualora l’incertezza sia notevole, si

ricorre generalmente all’attribuzione multipla (es. VI-VII) non avendo

significato valori di intensità frazionari.

3.3.2.2.1 L’indagine macrosismica dei terremoti contemporanei

L’analisi dei danni e degli effetti prodotti sul territorio dai terremoti

contemporanei viene condotta principalmente in due modi: mediante la

compilazione di questionari o per mezzo di indagini macrosismiche di campagna

effettuate nei giorni immediatamente successivi all’evento.

In occasione dei terremoti disastrosi più recenti, che hanno colpito la penisola

italiana (Friuli, maggio 1976; Irpinia, novembre 1980; Umbria-Marche,

settembre-ottobre 1997), sono state effettuate campagne di indagine

macrosismica. Le loro finalità erano quelle di determinare più dettagliatamente i

danni arrecati all’ambiente antropico e soprattutto l’individuazione di eventuali

tracce di fagliazione superficiale che consentissero di identificare la struttura

sismogenetica responsabile del terremoto.

Per quanto riguarda invece i terremoti di minore energia, l’analisi

macrosismica viene essenzialmente condotta per mezzo di questionari che

costituiscono un mezzo certamente più economico del precedente ma allo stesso

tempo meno attendibile e completo. La raccolta sistematica delle informazioni

macrosismiche degli eventi risentiti sul territorio italiano è attualmente gestita

dall’Istituto Nazionale di Geofisica (ING) tramite questionari che vengono

inviati ad una rete di corrispondenti costituita dalle Stazioni dell’Arma dei

Page 64: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

64

Carabinieri, dai Comuni e relative frazioni e dalle Stazioni del Corpo Forestale

dello Stato, per un totale di oltre 13000 punti di controllo. Lo stesso Istituto

pubblica un Bollettino Macrosismico con cadenza quadrimestrale.

3.3.2.2.2 I dati sismici storici: problemi connessi all’interpretazione delle fonti

documentarie

Nel corso degli ultimi venti anni si è assistito in Italia ad un enorme progresso

e sviluppo dell’indagine storica di terremoti del passato. Un simile risultato è

stato reso possibile grazie ad uno stimolante “matrimonio” fra la storia e la

sismologia (riguardo ad obiettivi, metodi e punti di vista), il cui risultato può

essere visto nella creazione di un settore di ricerca denominato “sismologia

storica”.

Il lavoro di acquisizione e successiva elaborazione dei dati storici può essere

sostanzialmente riassunto nei seguenti passaggi:

1) Ricerca storica. L’indagine macrosismica di terremoti del passato può essere

effettuata sia mediante lo studio di cronache contemporanee agli eventi che di

relazioni successive. In generale, informazioni dirette riportate da cronisti che

abbiano sperimentato il terremoto di persona sono certamente preferibili rispetto

ad analisi successive più facilmente alterabili o ambigue. Tuttavia, soprattutto

nel caso in cui la ricerca storica riguardi epoche molto lontane nel tempo, lo

studio delle fonti originali richiede un notevole impegno sia a causa dell’estrema

dispersione geografica dei documenti (spesso conservati in piccoli archivi locali

di centri minori o addirittura di parrocchie), sia per le difficoltà connesse alla

interpretazione storica e linguistica dei testi. Di conseguenza, l’esame di fonti

originali può essere condotto soltanto con una stretta collaborazione tra

sismologi, storici e linguisti e con un notevole impiego di mezzi economici.

Un ulteriore problema relativo ai dati documentari è costituito dalla eterogeneità

ed attendibilità delle fonti storiche utilizzate, in genere rappresentate dai più

svariati tipi di documenti come testi religiosi, storiografici, letterari, epigrafici,

amministrativi, ecc., spesso difficilmente omologabili. A tutto ciò, si aggiunge il

fatto che tali dati sono inevitabilmente affetti da un notevole grado di

soggettività da parte del narratore o di colui che li ha tramandati sino ad oggi.

Page 65: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

65

2) “Ricomposizione” del terremoto. Le informazioni relative agli effetti

prodotti dal terremoto sul territorio possono essere considerate come elementi di

un puzzle che devono essere riuniti in modo appropriato. Questo passaggio

risulta estremamente critico, dal momento che tutti i dati devono essere collocati

rispetto ad un sistema di riferimento spazio-temporale. Duplicazioni o cattive

interpretazioni, presenti spesso nei cataloghi sismici storici, sono infatti la

conseguenza di un approccio non sufficientemente attento ed approfondito a tale

lavoro.

3) Quantificazione degli effetti: assegnazione del grado di intensità. Affinché

le informazioni storiche raccolte possano essere utilizzate per scopi pratici,

occorre in qualche modo quantificare i danni e gli effetti che il terremoto ha

prodotto sul territorio, confrontandoli con un insieme di descrizioni di effetti

ordinato in modo progressivo (gradi di intensità definiti nelle scale

macrosismiche) e, quindi, selezionare quello al quale le osservazioni sembrano

meglio corrispondere. Tuttavia, solo raramente i dati documentari sono riportati

in modo da essere facilmente confrontabili con le descrizioni di danno presenti

nelle scale macrosismiche. Inoltre, dal momento che la stima dell’intensità viene

usualmente effettuata sulla base di criteri “esperti” del tutto soggettivi, risulta

spesso estremamente problematico trovare un criterio di valutazione omogeneo.

Nel valutare gli effetti che un dato terremoto ha prodotto sull’ambiente, occorre

anche considerare che questi non dipendono soltanto dalle caratteristiche fisiche

della sorgente sismica (considerate stabili se rapportate alla scala temporale

degli uomini) ma anche dalle condizioni geologico-geomorfologiche locali e,

soprattutto, dalla vulnerabilità del patrimonio edilizio coinvolto. A questo

proposito, mentre le caratteristiche dei terreni di superficie possono essere in una

certa misura considerate costanti, altrettanto non si può dire per quanto concerne

la vulnerabilità degli edifici: essa dipende, infatti, dalle tecniche edilizie

impiegate, dai materiali utilizzati, dallo stato di conservazione delle costruzioni,

ovvero da un insieme di fattori interpretabili come “variabili storiche”. Il grado

di danneggiamento di una determinata località è infatti determinato dalle

condizioni storiche abitative e dal loro mutare. Esaminando le informazioni

disponibili nei quasi mille anni di copertura temporale offerta dai cataloghi

sismici italiani, si nota che la gravità dei disastri sismici è cresciuta in modo

Page 66: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

66

proporzionale allo sviluppo delle città, in funzione delle diverse caratteristiche

degli edifici e della morfologia dei centri abitati.

Tenendo conto dei numerosi problemi esposti, è evidente che arrivare ad una

quantificazione omogenea degli effetti provocati da un terremoto avvenuto in

epoca passata, sulla base di testimonianze tanto eterogenee e spesso ambigue,

risulta un compito estremamente complesso.

3.3.2.2.3 La parametrizzazione del terremoto su base macrosismica

La differenza più importante tra magnitudo ed intensità di un terremoto è che la

prima è una misura strumentale correlata ai processi della sorgente sismica

mentre l’intensità definisce la severità degli effetti del terremoto in un

particolare luogo, che non dipende solo dall’energia liberata alla sorgente

sismica e dalla sua distanza. L’assegnazione dell’intensità dopo un evento

sismico, riferita ad un dato sito, viene effettuata tramite la constatazione diretta

dei danni ed effetti. Da queste informazioni si deduce la distribuzione spaziale

delle intensità di sito che, raggruppate su supporti cartografici costituiscono la

carta delle isosisme identificanti il campo macrosismico.

Il tracciamento delle isosisme, fino a pochi anni fa eseguito manualmente (fig.

3.5), può essere oggi realizzato in modo automatico con appositi programmi di

contouring. In questo modo, all’arbitrarietà associata a qualsiasi problema di

interpolazione, non si viene ad aggiungere il rischio di scarsa obiettività da parte

del tracciatore.

Page 67: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

67

Fig. 3.5 - Campo macrosismico del terremoto della Valtellina del 29 dicembre 1999 elaborato in base alla

descrizioni degli effetti locali. Le aree colorate, delimitate dalle isosisme, descrivono le zone in cui si

sono risentiti gli stessi effetti (quantificati secondo la scala MCS).

L’utilizzo di questo genere di rappresentazione comporta una serie di problemi.

Occorre innanzitutto sottolineare che l’andamento delle isosisme dipende non

soltanto dal criterio adottato per il tracciamento, ma anche dalla

rappresentatività (in alcuni casi molto limitata) dei punti di controllo

dell’intensità. Tali punti, infatti, corrispondono a località e di conseguenza non

sono distribuiti in modo omogeneo lungo la superficie terrestre. Al contrario,

essi risultano più densi all’interno delle valli e lungo le linee costiere, più scarsi

lungo le catene montuose e, addirittura, assenti in mare. Inoltre una

rappresentazione mediante curve di livello, basata sulla interpolazione di valori

puntuali d’intensità, non è in grado di evidenziare la presenza di eventuali

località che abbiano sperimentato risentimenti “anomali” particolarmente elevati

attribuibili ad amplificazioni locali del moto sismico del suolo.

Una volta ricostruito il campo macrosismico di un terremoto, il passo

successivo consiste nella individuazione del punto in superficie corrispondente

al cosiddetto epicentro macrosismico.

Al contrario dell’epicentro strumentale, non esiste in letteratura una definizione

altrettanto precisa di epicentro macrosismico. Esso dovrebbe rappresentare il

punto in superficie corrispondente alla massima intensità osservata Imax. Tale

Page 68: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

68

definizione risulta tuttavia ambigua in quanto frequentemente l’Imax non

corrisponde ad un unico punto ma ad un’area (talvolta intervallata da altri punti

con risentimento minore). È inoltre possibile che anche qualora si individui un

unico punto, il valore di intensità massima sia da porre in relazione ad effetti di

sito piuttosto che alla vicinanza della sorgente sismica.

In genere l’epicentro macrosismico può essere definito come il baricentro

dell’area dove si sono verificati i massimi effetti. Utilizzando le isosisme ciò

corrisponde a prendere il centro della isolinea di grado più elevato. Qualora

invece si usino punti quotati dell’intensità, il baricentro può essere ottenuto

facendo la media delle coordinate dei punti con intensità più alta. È così

possibile definire l’intensità epicentrale Ie come «il valore della isolinea chiusa

di grado più elevato che è possibile tracciare considerando almeno tre diversi

punti». Tale quantità viene tuttavia indicata solo quando disponibile, mentre più

frequentemente nei cataloghi è riportata soltanto l’Imax.

In alcuni casi i due valori di intensità (massima ed epicentrale) possono

risultare sensibilmente diversi e di ciò è necessario tenere conto al fine di evitare

gravi errori di valutazione. È questo il caso di epicentri localizzati in mare aperto

o in aree scarsamente popolate: in simili circostanze, infatti, occorre considerare

anche l’incompletezza del dato macrosismico. Nel caso specifico dell’Italia,

mentre a causa della sua conformazione geografica, il primo di questi casi risulta

importante, il secondo, è pressoché irrilevante, dal momento che la penisola è

stata densamente abitata sin dai tempi antichi.

In ogni analisi volta a caratterizzare i terremoti a partire da informazioni

macrosismiche, bisogna considerare che lo scuotimento sismico del suolo è

fortemente condizionato dalle condizioni geologiche superficiali di sito. La

presenza di roccia o di centinaia di metri di sedimenti, nel sottosuolo dell’area in

esame, come già visto, ha più influenza sugli effetti del terremoto che non la

grandezza del terremoto stesso (e cioè la sua magnitudo). È dall’analisi delle

isosisme che si possono rilevare le anomalie d’intensità. Queste, imputabili ad

effetti di sito, si manifestano con attenuazioni o amplificazioni anomale dei

risentimenti di un terremoto. È questo un fenomeno di cui tenere conto al

momento dell’assegnazione del grado di intensità, in quanto nelle varie scale

macrosismiche si fa sempre riferimento alla tipologia dell’abitazione colpita ma

non su quale tipo di substrato, roccia o suolo, sorga l’edificio. È infatti comune

Page 69: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

69

riscontrare differenze di parecchi gradi di intensità anche a breve distanza, a

seconda del substrato presente. La tendenza generale è quella di avere le

maggiori intensità in presenza di rocce sedimentarie recenti o poco consolidate

rispetto alle più rigide rocce granitiche, vulcaniche o metamorfiche. Le scale

macrosismiche hanno poi la tendenza a sovrastimare i gradi più alti. Spesso

effetti indotti dai terremoti più forti, come grandi frane o scivolamenti, e che

concorrono all’assegnazione del grado, possono non essere una diretta

conseguenza del sisma che va ad innescare preesistenti condizioni di instabilità.

Esistono diverse relazioni empiriche che stimano la magnitudo in funzione di

un parametro che descriva gli effetti macrosismici al sito. Il parametro più

utilizzato è l’intensità epicentrale Ie e la magnitudo è ricavabile attraverso una

relazione di regressione. Un altro parametro utilizzato per stimare la magnitudo

è l’estensione dell’area totale di risentimento del terremoto (felt area) o quella in

cui si sono riscontrati gli effetti propri di un dato grado (di solito il IV). Le

relazioni empiriche corrispondenti sono formulate a partire dalla constatazione

che più è alta la magnitudo di un terremoto maggiore risulterà l’area in cui si

risentono gli effetti di scuotimento.

Sono state proposte numerose relazioni empiriche magnitudo-intensità valide

per il territorio italiano. Queste sono state calcolate per ognuna delle regioni in

cui è stata suddivisa l’Italia sulla base di criteri tettonico-geologici e per

l’omogenea sismicità. Una relazione valida per il territorio italiano è la seguente

29.147.0 ++++==== eL IM (Ie≤≤≤≤X)

Relazioni di questo tipo sono importanti per stimare la magnitudo dei terremoti

storici. Incertezze e soggettività del metodo sono compensate dalla grande

quantità di dati che la sismologia storica può fornire a complemento di quella

strumentale. Queste relazioni empiriche devono essere utilizzate criticamente in

quanto è necessario conoscere le assunzioni su cui sono basate. Il numero, la

classe, la profondità epicentrale dei terremoti considerati, i criteri di definizione

delle aree in cui sono validi i coefficienti di regressione, sono variabili da

considerare per una corretta utilizzazione.

Page 70: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

70

3.3.3 I metodi di stima: elementi di analisi probabilistica di rischio

sismico

Tra le metodologie di tipo statistico si possono essenzialmente distinguere due

diversi approcci: il primo, basato sull’impiego di soli dati epicentrali (approccio

di sorgente), consente di stimare la pericolosità al sito ricorrendo a relazioni di

attenuazione che considerano gli effetti della distanza sul parametro adottato per

la stima del moto del terreno (intensità, accelerazione di picco, ecc.). Il secondo,

invece, perviene alla stima di pericolosità locale attraverso il diretto impiego

delle informazioni disponibili circa la “storia sismica” del sito in esame

(approccio di sito), riducendo in tal modo le incertezze introdotte dall’utilizzo

di una legge empirica di attenuazione. Mentre il primo approccio viene adottato

su larga scala sia in Italia che all’estero e rappresenta attualmente una

metodologia di tipo standard, la stima di pericolosità da dati di sito costituisce

un metodo innovativo.

Nell’ambito dell’approccio di sorgente, il metodo più noto e maggiormente

diffuso a livello mondiale è senza dubbio quello proposto in origine da C.A.

Cornell nel 1968 (par. 3.3.3.1).

3.3.3.1 Il metodo di Cornell

L’approccio rappresenta un tentativo di introdurre in ambito probabilistico

aspetti deterministici capaci di ridurre l'indeterminazione sulla localizzazione

spazio-temporale dei futuri eventi sismici. La probabilità di eccedenza di un

determinato livello di scuotimento del suolo (in genere espresso in termini di

accelerazione di picco del terreno o PGA), in un dato periodo di tempo, è

valutata determinando la probabilità di ogni possibile valore di scuotimento,

data ogni possibile magnitudo, ad ogni possibile distanza, per ogni possibile

sorgente. Il risultato di tale calcolo viene usualmente rappresentato mediante una

curva di pericolosità indicante la probabilità annua di superamento, al sito di

interesse, di un dato livello di scuotimento del terreno.

Da quanto detto risulta quindi evidente che l’applicazione del metodo di

Cornell richiede, oltre ad un catalogo epicentrale, anche una certa conoscenza

Page 71: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

71

delle caratteristiche sismotettoniche della regione in esame. Di conseguenza,

l’affidabilità delle stime di pericolosità risulta strettamente dipendente anche dal

livello di conoscenza della tettonica attiva raggiunto in una determinata area.

Nel seguito vengono elencati i punti fondamentali della metodologia di Cornell.

I. Definizione delle sorgenti sismiche. È la prima operazione del metodo.

La mancata conoscenza dell’esatta ubicazione delle sorgenti sismogeniche

dovuta, per esempio, alla complessa situazione tettonica dell’area, è

affrontata assumendo uniforme la probabilità di occorrenza all’interno

della zona sismogenica ZS. Questo equivale a “spalmare” il numero

totale di eventi sull’intera ZS. In questo modo ogni elemento areale della

zona sismogenetica risulta dotato del medesimo tasso di sismicità, inteso

come il numero medio di terremoti nell’unità di tempo. È facilmente

intuibile che questa assunzione pone molti problemi. Innanzitutto è critica

la scelta della forma e dell’estensione delle zone sismogenetiche in quanto

la forma determina il numero totale di terremoti che “ricadono” al suo

interno. Inoltre, l’estensione determina quanto alto sarà il tasso di

sismicità della ZS, dato che a parità di numero di terremoti più è ampia la

ZS più risulterà basso il tasso di sismicità per ogni elemento areale.

II. Definizione del tasso di sismicità per ciascuna zona sismogenica.

Viene effettuata stimando per ciascuna classe di magnitudo m il numero

di eventi N(m) che si verifica mediamente nell’unità di tempo per ogni

elemento areale. Questo viene calcolato a partire dal catalogo sismico,

come il numero di eventi con magnitudo superiore o uguale a m avvenuti

nelle ZS, nell’intervallo in cui il catalogo sismico è considerato completo,

diviso per la durata di questo intervallo. Si vede quindi l’importanza

cruciale di un’accurata valutazione dell’intervallo di completezza del

catalogo disponibile. La funzione N(m) così ottenuta è detta “relazione di

ricorrenza numero eventi-magnitudo”. Si assume che questa abbia la

forma della relazione semilogaritmica di Gutenberg e Richter (G-R):

Log N =A-Bm

dove N è il numero di terremoti di magnitudo almeno pari a m nell’unità

di tempo. A e B sono i parametri della relazione di ricorrenza e vanno

determinati sperimentalmente a partire dai valori osservati del tasso di

sismicità ottenuti per alcuni valori delle magnitudo di soglia. A definisce

Page 72: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

72

un tasso di attività che varia sensibilmente da zona a zona. Un importante

indicatore di pericolosità sismica è il periodo medio di ritorno T per

unità di area pari al reciproco del tasso di sismicità. B esprime il rapporto

tra il numero dei terremoti forti e di quelli deboli.

III. Definizione della sismicità al sito. A partire da opportune leggi

empiriche di attenuazione (vedi par. 2.2.2.2.1) è possibile calcolare

l’accelerazione attesa ad un determinato sito, posto ad una distanza r dalla

sorgente, una volta nota la magnitudo dell’evento sorgente. Per ciascuna

classe di magnitudo e per ciascuna parte delle diverse zone

sismogenetiche è possibile quindi dedurre l’accelerazione attesa al sito. Su

questa base, e noti i tassi di sismicità di ciascuna zona sismogenetica, è

quindi possibile conoscere il numero di volte che, mediamente, un dato

valore di accelerazione sarà superato al sito nell’unità di tempo. Questo

numero definisce il tasso di sismicità al sito.

IV. Distribuzione temporale delle scosse. I tassi di sismicità al sito ricavati

non forniscono informazioni sulla distribuzione nel tempo delle scosse

relative ai vari livelli di accelerazione. Si fa a questo punto l’assunzione

che ogni terremoto è indipendente dall’altro (ovvero che l’occorrenza di

un evento non condiziona il successivo e quindi il processo è privo di

“memoria”). Assumendo, inoltre, che il numero di terremoti in un

intervallo di tempo dipenda linearmente dalla durata di quest’ultimo e che

l’occorrenza contemporanea di due eventi sia altamente improbabile si

può dimostrare che la distribuzione nel tempo delle scosse segue una

distribuzione di Poisson. Queste assunzioni, sono in realtà attendibili solo

se dai dati del catalogo sismico sono escluse le sequenze di eventi

(sciami) o le repliche (aftershock), eventi che sono considerati dipendenti

dall’evento principale (mainshock). La procedura di esclusione non è

univoca e presenta alcuni elementi arbitrari che rendono le stime, almeno

in parte, soggettive. La distribuzione di Poisson è definita da un unico

parametro descrittivo, la media, che coincide appunto con il tasso di

sismicità. Un parametro spesso usato è il periodo medio di ritorno T che

è pari all’inverso del tasso di sismicità.

V. Determinazione della pericolosità del sito. A partire dal tempo medio di

ritorno è possibile esprimere la pericolosità al sito mediante curve di

Page 73: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

73

eccedenza p(Z), che definiscono la probabilità di superare un dato

scuotimento del suolo P(Z>z), almeno una volta, in un determinato

periodo (tempo di esposizione ∆∆∆∆T), per ogni valore Z di accelerazione del suolo plausibilmente raggiungibile. Queste curve, vista la forma

Poissoniana della sismicità, sono esprimibili come

T

T

ezZP

∆∆∆∆−−−−

−−−−====>>>> 1)(

dove P è la probabilità che il valore di scuotimento Z superi la soglia z.

Utilizzando questa relazione è possibile determinare, per esempio,

l’accelerazione attesa come quel valore massimo di accelerazione per cui

a ∆∆∆∆T = 50 anni (tempo di esposizione) si ha una probabilità P di

eccedenza (cioè di osservare almeno una volta quell’accelerazione)

minore del 10%.

3.3.3.1.1 I limiti superiore ed inferiore di magnitudo

Per ottenere la quantificazione probabilistica della pericolosità sismica con il

metodo di Cornell è necessario specificare i limiti superiore ed inferiore della

magnitudo degli eventi sismici presi in considerazione ovvero i limiti di validità

della relazione di G-R. Il limite inferiore è assunto come la magnitudo minima al

di sotto della quale non si hanno effetti ingegneristicamente rilevanti. Come

visto, la stima del limite inferiore di magnitudo non è contemplata nell’analisi

deterministica (par. 3.2). Il limite inferiore di magnitudo, condizionando lo

spettro di frequenza dei terremoti più piccoli, riveste invece un importante ruolo

nell’approccio probabilistico, dato che il moto del suolo ad essi relativo è ricco

di alte frequenze. Molti studi suggeriscono la magnitudo 5.0 come il minimo

valore “conservativo” per il quale sono attesi danni in strutture costruite con

particolari criteri di sicurezza. In questa generalizzazione non vengono

considerati i terremoti molto superficiali i quali, nonostante le loro limitate

dimensioni, possiedono un elevato potenziale di danneggiamento.

La definizione del limite superiore di magnitudo è più difficile. A differenza

del limite inferiore, il cui valore proposto è valido per diversi contesti tettonici,

il limite di magnitudo superiore è specifico e molto spesso determinato con

Page 74: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

74

estrapolazioni a partire da pochi dati. La determinazione del massimo terremoto

possibile, descritta nel par. 3.2.2, dipende dall’approccio utilizzato. Nell’analisi

deterministica, la scelta della massima magnitudo stabilisce direttamente i

risultati finali non considerando l’intervallo temporale su cui l’analisi si estende.

Nell’approccio probabilistico, il massimo evento possibile è determinato dalla

probabilità di occorrenza, il che lega la massima magnitudo all’intervallo di

tempo considerato ed al contesto geodinamico. Il massimo terremoto storico

costituisce il limite inferiore delle dimensioni assegnabili al massimo terremoto

possibile, secondo la logica che ciò che è accaduto in passato può ripetersi in

futuro.

La scelta del limite superiore di magnitudo pone delle domande

sull’adeguatezza dei dati deducibili dalla retta che interpola i punti

dell’equazione di ricorrenza. L’equazione di Gutenberg–Richter evidenzia come

il numero dei terremoti diminuisce logaritmicamente con l’aumentare della

magnitudo. L’accuratezza della retta che approssima l’equazione di ricorrenza

decresce notevolmente con il diminuire dei punti che deve interpolare. Per

ovviare a questo inconveniente si possono adottare le relazioni esponenziali di

ricorrenza troncate basate su di una normalizzazione dell’equazione di

Gutenberg–Richter, che funzionano bene nei casi di dati sismici eterogenei

(strumentali, storici e paleosismici), che producono grafici frequenza-magnitudo

lineari a tratti . L’esistenza di tratti delle relazioni di ricorrenza, caratterizzati da

valori diversi della pendenza B, evidenzia che la legge di ricorrenza del

terremoto non è costante per tutte le magnitudo, quindi si rischierebbe di

estrapolare la ricorrenza, per alcuni valori di magnitudo, utilizzando un

coefficiente B non corretto. Le relazioni di ricorrenza troncate risolvono in

modo accettabile questo fenomeno.

3.3.3.1.2 Lo spettro di risposta di pericolosità uniforme

I risultati dell’analisi di pericolosità ottenuti con il metodo di Cornell sono,

come visto, le curve di eccedenza. Queste esprimono la probabilità di superare,

nel tempo di esposizione, un determinato valore di scuotimento del suolo.

Normalmente, il parametro descrittivo a cui si fa riferimento è il picco massimo

Page 75: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

75

di accelerazione del suolo o PGA. Questo parametro viene dato

indipendentemente dalla frequenza e quindi dall’attenuazione differenziata in

funzione della frequenza di oscillazione delle onde sismiche. Per quantificare

l’effetto delle diverse modalità di attenuazione si può utilizzare lo spettro di

risposta di pericolosità uniforme. Da questo tipo di risultato è possibile

ricavare il valore di accelerazione, atteso al sito, in funzione dei diversi periodi

di oscillazione che compongono il segnale sismico. L’aggettivo “uniforme” si

riferisce all’equiprobabilità che ogni accelerazione ha, in corrispondenza ad un

preciso periodo, di essere raggiunta rispetto alle altre della medesima curva. Lo

spettro di pericolosità uniforme è composto dalle accelerazioni attese al sito,

stimate con il metodo di Cornell, utilizzando una legge di attenuazione diversa

per ciascun valore dello spettro dei periodi di oscillazione ingegneristicamente

rilevanti. In pratica è come se si applicasse il metodo di Cornell per ognuno dei

periodi che compongono le onde sismiche, determinando come l’attenuazione

influisce sugli effetti di scuotimento al sito in funzione della frequenza oltreché

della distanza e della magnitudo. La richiesta di maggiore tempo di calcolo,

necessario per ottenere lo spettro di risposta di pericolosità uniforme, è

compensata dal maggiore dettaglio che esso fornisce sull’entità dello

scuotimento atteso in funzione della frequenza di oscillazione. Gli “spettri di

risposta a periodo uniforme” permettono una stima migliore degli effetti sismici

sulle strutture fornendo un immediato confronto tra accelerazione, frequenza di

oscillazione e frequenza naturale della costruzione evidenziando la possibilità di

avere fenomeni di risonanza.

3.3.3.2 Il metodo di sito per la stima della pericolosità sismica

La grande ricchezza di dati documentari disponibili in Italia e le ricerche

storiche condotte negli ultimi due decenni hanno consentito di redigere un

catalogo unico al mondo riguardo ai terremoti del passato. Fino ad oggi, tuttavia,

tale ricchezza di informazioni non ha trovato piena utilizzazione nelle stime di

pericolosità sismica.

L’ostacolo principale all’impiego di questi dati è rappresentato dalla loro

natura semi-qualitativa che porta alcuni a ritenere il dato storiografico “povero”,

Page 76: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

76

rispetto a quello strumentale e, di conseguenza, utilizzabile soltanto

marginalmente per stime di pericolosità, a condizione di “forzare”

l’informazione documentaria all’interno di categorie tipiche del dato strumentale

(epicentro, magnitudo, ecc.). Quest’ultima conversione (spesso implicata

nell’applicazione del metodo di Cornell) non è in grado di tenere conto delle

particolari caratteristiche del dato macrosismico né delle incertezze che lo

caratterizzano quali quelle relative all’attribuzione del livello di danno da dati

antichi (il grado di intensità della scala macrosismica).

Per utilizzare appieno l’informazione macrosismica è stato recentemente

sviluppato un approccio di stima della pericolosità sismica. Questo è basato

sull’impiego diretto dei dati d’intensità al sito in grado di tenere correttamente

conto delle diverse incertezze che caratterizzano la stima di pericolosità. A

differenza dei metodi standard, inoltre, non richiede altra assunzione che la

stazionarietà dei processi sismogenetici responsabili dei terremoti.

3.3.3.2.1 La ricostruzione del catalogo sismico di sito

Il primo passo della procedura, consiste nella ricostruzione del catalogo

sismico di sito, ovvero nella definizione della sismicità passata sulla base delle

informazioni macrosismiche disponibili. In generale, per una data località, si

possono presentare tre diverse situazioni:

a) I dati sono sufficienti per un’attribuzione univoca del valore di intensità. Ciò

si verifica in particolare per i terremoti recenti o per i siti nei quali sono stati

osservati gli effetti più intensi (epicentri macrosismici);

b) I dati consentono soltanto la determinazione di un intervallo di valori di

intensità accettabili (es. V-VIII). Il caso, tipico dei dati documentari,

renderebbe opportuna l’assegnazione di un valore di probabilità ad ogni

valore di intensità ritenuto plausibile;

c) I dati non sono disponibili al sito ma soltanto all’epicentro. Tale situazione è

particolarmente frequente nel caso dei terremoti più antichi per i quali spesso

si dispone di informazioni relative alle sole località epicentrali o alle più

importanti di un’area. Lo stesso accade quando, per scopi ingegneristici, è

Page 77: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

77

necessario stimare la pericolosità sismica in siti disabitati del tutto privi di

informazioni storiche (es. dighe, centrali nucleari, ecc.).

È quindi opportuno definire ciascun dato di intensità risentita al sito in termini

probabilistici, esprimendo il livello di probabilità associato ad ogni classe di

intensità. Di conseguenza, anche i parametri più semplici che definiscono

l’attività sismica (ad esempio il numero di terremoti risentiti al sito con una data

intensità) vanno espressi in termini probabilistici.

3.3.3.2.2 La definizione della storia di sito sulla base dei risentimenti osservati

Per tenere conto delle incertezze presenti nel dato documentario, ad ogni

terremoto “risentito al sito” viene quindi associata una densità di probabilità

pn(I), funzione del valore discreto di intensità I, rappresentativo del livello di

danneggiamento osservato al sito espresso in gradi di intensità secondo una

scala macrosismica. Ogni valore di tale distribuzione rappresenta la probabilità

che quel terremoto sia stato effettivamente risentito al sito con intensità pari al

grado I considerato. Per definizione di probabilità, la funzione pn(I), deve dare:

∑∑∑∑====

====max

min

1)(

I

II

n Ip (3.3)

dove Imin e Imax rappresentano rispettivamente il minimo ed il massimo valore

consentito dalla scala macrosismica adottata (ovvero 1 e 12 nel caso della scala

MCS). A causa del carattere ordinale e discreto del dato di intensità, la funzione

pn(I) ha la forma di un vettore di 12 elementi.

Qualora le fonti storiche siano sufficientemente chiare e concordi da consentire

un’attribuzione univoca della intensità I0 risentita al sito, la funzione pn(I) sarà

uguale a 0 per ogni valore di I diverso da I0 ed a 1 quando I è uguale a I0.

La distribuzione di probabilità pn(I) consente quindi una rappresentazione

corretta del livello di confidenza attribuito al singolo possibile valore di

intensità, ovvero della probabilità che un dato terremoto abbia prodotto al sito

effetti di intensità pari a I.

Come esempio di tale formalizzazione viene riportata una descrizione di

danneggiamento prodotto a Napoli da un terremoto verificatosi il 26 luglio 1805,

Page 78: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

78

con epicentro in Molise (testo dal “Catalogo dei Forti Terremoti in Italia dal

461 a.C. al 1990”, Boschi et al., 1997):

«Il terremoto causò fessurazioni ai muri e danni diffusi a molti edifici e chiese.

Alcune case crollarono, altre si resero inabitabili e poche rimasero illese. Gran

parte delle abitazioni dovettero essere puntellate e altre demolite in parte.

Furono maggiormente colpiti i palazzi più alti e anche i più solidi. Due persone

morirono a causa del crollo di alcuni pavimenti e di una torretta nel palazzo del

Principe Corigliano, numerosi i feriti».

Un simile scenario di danni ha portato ad un’attribuzione non univoca del

grado di intensità, pari a VII-VIII. In questo caso, assumendo che entrambi i

valori siano equiprobabili, ovvero ugualmente attendibili, l’informazione viene

espressa, in termini di densità di probabilità, nella seguente forma:

pn(I)={{{{0,0,0,0,0,0,0.5,0.5,0,0,0,0}}}}

Per ciascuna densità di probabilità pn(I) è possibile inoltre definire la

probabilità di eccedenza Pn(I) che è la probabilità, al sito, che il terremoto in

esame abbia prodotto effetti almeno pari al grado I e cioè:

∑∑∑∑====

====max

)()(

I

Ij

nn jpIP (3.4)

Nell’esempio sopra considerato un’intensità pari a VII-VIII viene espressa, in

termini di probabilità di eccedenza, nella forma:

Pn(I)={{{{1,1,1,1,1,1,1,0.5,0,0,0,0}}}}

La storia sismica di un sito viene quindi rappresentata da un numero totale N di

terremoti, ad ognuno dei quali è associata una distribuzione di probabilità Pn(I)

rappresentativa del livello di confidenza attribuito all’ipotesi che quel dato

evento abbia prodotto al sito effetti almeno pari ad una determinata intensità.

Come accennato al punto c) del par. 3.3.3.2.1, spesso nel caso dei terremoti più

antichi i dati documentari non sono disponibili al sito di interesse ma soltanto

per le località maggiormente danneggiate (epicentri macrosismici) o per i centri

di maggiore importanza culturale, politica o economica. In questo caso,

l’intensità al sito deve essere stimata mediante relazioni di attenuazione di tipo

empirico.

In base a numerose evidenze sperimentali è stato dimostrato che il livello di

danneggiamento tende a decrescere in modo monotòno con la distanza

Page 79: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

79

dall’epicentro. Si può quindi definire una funzione densità di probabilità

R(I|f(r), Ie) che rappresenta la probabilità che almeno un terremoto sia stato

risentito al sito con intensità maggiore o uguale a I, condizionata dalla intensità

epicentrale Ie e da una funzione f(r) proporzionale alla distanza tra sito ed

epicentro. Per semplicità si considera che f sia funzione della sola distanza

epicentrale r, ovvero che l’attenuazione sia isotropa.

La probabilità di eccedenza Pn(I) alla località n, associata ad un terremoto per

il quale non sia disponibile l’intensità risentita al sito ma soltanto all’epicentro,

può essere calcolata combinando la funzione R(I|f(r), Ie) con la probabilità pe(I)

(densità di probabilità che esprime l’incertezza di attribuzione dell’intensità

epicentrale). Queste probabilità possono essere considerate indipendenti, per cui

la probabilità di eccedenza Pn(I) al sito è espressa nella seguente forma:

)),(()()(max

JrfIRJpIP

I

IJ

en ∑∑∑∑====

==== (3.5)

Nell’ambito della formalizzazione proposta, la funzione densità di probabilità

R equivale alle leggi di attenuazione deterministiche ampiamente utilizzate e

descritte in letteratura. A differenza di tali leggi tuttavia, la funzione R ha un

carattere probabilistico ed è quindi in grado di tenere conto delle incertezze che

il loro utilizzo comporta.

La funzione probabilistica R, di seguito utilizzata, è stata determinata per

l’intero territorio italiano sulla base di oltre 2400 terremoti verificatisi dal 1000

al 1980, riportati nel catalogo epicentrale NT4.1 e di quasi 37000 valori di

intensità risentiti in circa 11000 località italiane, disponibili nell’archivio delle

informazioni macrosismiche DOM4. La funzione probabilistica R assume la

forma

)ln()()(

)ln()()(

1rAbAa

rAbAa

oo

oo

e

eR

++++

++++

++++====

dove Ao rappresenta la soglia di attenuazione, ovvero la massima differenza

attesa tra l’intensità, rispettivamente, all’epicentro Ie ed al sito Is , r è la distanza

epicentrale. I parametri a e b sono dati mediante le due relazioni

a(Ao) = 2.57 + 0.91 Ao

b(Ao) = -1.57 + 0.05 Ao

Page 80: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

80

Sulla base dei risentimenti di cui si ha effettivamente notizia al sito e degli

effetti calcolati a partire dai soli dati epicentrali riportati in catalogo, ridotti al

sito mediante la funzione di attenuazione descritta (casi più sfavorevoli), è

quindi possibile ricostruire per singole località la storia sismica, formalizzata in

termini probabilistici.

3.3.3.2.3 La valutazione della pericolosità al sito e la stima di completezza del

catalogo sismico

Una volta ricostruita la storia sismica di sito, è possibile stimare la pericolosità

H, nell’assunzione che siano verificate le seguenti tre condizioni:

a) durante l’intervallo temporale coperto dalla storia sismica disponibile, si sono

verificate tutte le possibili situazioni responsabili degli effetti sismici attesi;

b) la storia sismica ricostruita è rappresentativa della sismicità realmente

accaduta al sito nel periodo considerato, ovvero il catalogo sismico di sito

risulta “completo”;

c) a causa di un’incompleta conoscenza delle condizioni tettoniche e dinamiche

presenti e passate, è possibile assumere a priori che tutte le condizioni in

grado di produrre effetti pari ad un determinato grado di intensità I in un

qualsiasi futuro intervallo di tempo ∆∆∆∆t siano equiprobabili. Sulla base di tali assunzioni, la pericolosità H al sito è espressa nella forma:

)()()(

1

0∑∑∑∑====

====iY

j

jji tIQtsTH ∆∆∆∆∆∆∆∆∆∆∆∆ (3.6)

dove H rappresenta la probabilità che in un futuro intervallo di tempo ∆∆∆∆t si verifichi almeno un terremoto in grado di produrre al sito di interesse effetti

almeno pari a I0.

Nella (3.6), s(∆∆∆∆tj) esprime la probabilità che in un qualsiasi intervallo futuro ∆∆∆∆t si verifichino le medesime condizioni geodinamiche attive durante l’intervallo

passato ∆∆∆∆tj. In base all’assunzione al punto c), tutte le condizioni risultano in

realtà equiprobabili. Posto che su tutti gli Yi intervalli di durata ∆∆∆∆t si possono

essere verificate condizioni analoghe a quelle dell’intervallo di esposizione ∆∆∆∆T,

il valore di s(∆∆∆∆tj)è costante e pari a

Page 81: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

81

1

11)

++++−−−−========

tTYts(

iij ∆∆∆∆∆∆∆∆

∆∆∆∆ (3.7)

dove ∆∆∆∆Ti è la durata del catalogo considerato. Il secondo termine nella (3.6),

)( 0 jtIQ ∆∆∆∆ , rappresenta invece la probabilità che almeno uno degli eventi

verificatisi durante un intervallo di tempo ∆∆∆∆tj sia stato realmente risentito al sito

con un’intensità maggiore o uguale a I0. Questo prodotto si ottiene dai vettori di

probabilità Pn(I) che rappresentano la storia sismica di sito attraverso la

relazione

[[[[ ]]]]∏∏∏∏====

−−−−−−−−====∆∆∆∆jN

n

nj IPtIQ

1

00 )(11)( (3.8)

Il valore di )( 0 jtIQ ∆∆∆∆ viene quindi stimato sulla base della storia sismica

disponibile al sito di interesse, ovvero dal numero di eventi Nj, verificatisi

nell’intervallo ∆∆∆∆tj, ad ognuno dei quali è associata la probabilità di eccedenza Pn(I) (si veda il par. 3.3.3.2.2), che stima la sicurezza che l’intensità I0 si sia

effettivamente osservata.

La stima di pericolosità H ottenuta dalla (3.6) dipende in modo critico dalla

storia sismica contenuta nel catalogo sismico. Fondamentale appare quindi la

definizione del periodo ∆∆∆∆Ti, all’interno del catalogo sismico disponibile, ritenuto

rappresentativo della sismicità effettiva al sito di interesse. In generale, una

maggiore durata di tale intervallo comporta stime di pericolosità più attendibili,

dal momento che le ipotesi alla base dell’equazione (3.6) risultano meglio

soddisfatte e la conoscenza relativa alla sismicità locale migliora. Tuttavia, se

allunghiamo l’intervallo ∆∆∆∆Ti, la nostra conoscenza sull’attività sismica passata e,

in particolare, sugli effetti da essa prodotti al sito peggiora e diviene sempre

meno affidabile: la causa è da ricercare nel problema della “completezza” dei

cataloghi sismici. In generale, a causa del peggioramento (in termini sia

quantitativi che qualitativi) delle informazioni disponibili sulla sismicità passata,

il tasso di sismicità “apparente” (ricavabile dai cataloghi) tende a decrescere

retrocedendo nel tempo. Una simile apparente diminuzione può quindi produrre

significativi errori sistematici nelle risultanti stime di pericolosità effettuate sulla

base di cataloghi incompleti.

Page 82: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

82

In base a tali considerazioni, assumendo L possibili scelte di ∆∆∆∆Ti, si otterranno altrettante stime di H definite per ciascuno di tali intervalli. La (3.6) viene

quindi generalizzata nella forma:

),()(),(

1

00 ∑∑∑∑====

∆∆∆∆∆∆∆∆∆∆∆∆====∆∆∆∆L

i

ii TItHTrItH (3.9)

dove il termine r(∆∆∆∆Ti) rappresenta la cosiddetta “funzione di completezza”

ovvero il grado di credibilità, espresso in termini probabilistici, nella ipotesi che,

per un determinato intervallo di tempo ∆∆∆∆Ti, il catalogo risulti completo ed

attendibile essendo

1)(

1

====∆∆∆∆∑∑∑∑====

L

i

iTr (3.10)

La stima della completezza di un catalogo sismico dovrebbe essere condotta

sulla base di approfondite indagini storiografiche finalizzate all’individuazione

delle fonti di incertezza presenti in un determinato periodo e alla definizione del

grado di attendibilità delle informazioni documentarie, contemporanee e

posteriori al terremoto, disponibili per le singole località. Il livello di

completezza di tali informazioni dipende infatti da un insieme di fattori

riconducibili alla situazione politico-sociale-economica presente nell’area in

esame nel corso della storia. Fino ad oggi, tuttavia, simili studi non hanno

trovato diretta applicazione nella valutazione della funzione di completezza a

causa delle difficoltà relative sia alla raccolta e successiva interpretazione dei

dati documentari che alla rappresentazione in termini quantitativi delle

informazioni ottenute. Di conseguenza, la funzione r(∆∆∆∆Ti) viene generalmente

stimata per via indiretta su base statistica attraverso metodologie che tendono ad

identificare i segmenti stazionari, ovvero completi, dei cataloghi.

Dalla (3.9) risulta che la stima finale di pericolosità, sulla base dell’intera storia

sismica disponibile al sito, si ottiene dalla combinazione di tutti i valori di

pericolosità ottenuti per ciascuno degli L possibili intervalli ∆∆∆∆Ti, valori di pericolosità a cui sarà assegnata un attendibilità (peso) funzione del livello di

completezza r(∆∆∆∆Ti) su cui è stata calcolata.

Page 83: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

83

3.3.4 I vantaggi ed i limiti degli approcci probabilistici di Cornell e

di sito

Da quanto esposto nel presente capitolo è emerso che le metodologie

probabilistiche per la valutazione della pericolosità sismica hanno molti

vantaggi rispetto all’approccio deterministico. Vantaggi che derivano da una

razionale considerazione di tutte le fonti di incertezza che entrano nella stima di

pericolosità, incertezze che negli approcci deterministici venivano affrontate con

assunzioni non sempre verificabili.

Ovviamente sia il metodo di Cornell che l’approccio di sito non sono privi di

difetti. Entrambi i metodi considerano la sismicità passata rappresentativa di

quella futura. In questo modo è necessario attingere alle registrazioni,

strumentali e non, degli eventi sismici passati per stimare la sismicità futura.

Bisogna però considerare che i dati non strumentali, di grande importanza

perché coprono un intervallo temporale molto maggiore di quelli strumentali,

sono condizionati dalle forti eterogeneità delle fonti documentarie utilizzate. Il

catalogo di tutti i dati, strumentali e non, ha poi, in generale, problemi di

completezza. Quest’ultima va accuratamente verificata per non portare a stime

probabilistiche errate.

L’applicazione del metodo di Cornell richiede, oltre ad un catalogo epicentrale,

l’identificazione di zone sismogenetiche. Questa identificazione si effettua in

base alle conoscenze delle caratteristiche sismotettoniche della regione in esame

ed è, almeno in parte, soggettiva. La forma e la dimensione delle zone

sismogenetiche sono cruciali per la determinazione del tasso di sismicità,

facendo variare il numero totale di terremoti considerati nel computo e l’entità

del numero di terremoti/anno per unità di superficie. Uno dei punti cruciale del

metodo di Cornell risiede nell’utilizzo delle relazioni empiriche di attenuazione.

Queste permettono di ricostruire la sismicità al sito ma lo fanno in modo

deterministico, non considerando cioè l’incertezza intrinseca di questa

operazione. Quindi, il numero totale di volte che al sito è superata una soglia di

accelerazione del suolo (per ogni magnitudo e porzione delle zone

sismogenetiche considerate), può variare notevolmente in base alla relazione di

attenuazione adottata. La ricostruzione della distribuzione temporale delle

scosse che danno un particolare livello di scuotimento, nello schema di Cornell,

Page 84: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

84

richiede una distribuzione Poissoniana nei tempi inter-evento. Quest’ultima è

plausibile solo se vengono utilizzati cataloghi sismici che comprendono solo

eventi indipendenti, il che comporta un’eliminazione, anch’essa arbitraria, di

alcuni degli eventi del catalogo (eventi dipendenti). L’approccio di sito invece

determina la pericolosità direttamente dalla descrizione degli effetti sismici in

ciascun sito. La principale differenza tra il metodo di sito ed il metodo di

Cornell risiede nel fatto che il primo applica in modo estensivo la filosofia

probabilistica includendo nel calcolo della pericolosità ogni fonte di incertezza,

mentre il metodo di Cornell tenta di imporla attraverso assunzioni riduttive o

arbitrarie. Per esempio nel caso in cui i dati di risentimento al sito non siano

noti, anche nell’approccio di sito si utilizzano leggi di attenuazione per stimare

la probabilità che nella località di interesse si sia risentita una data intensità, ma

in questo caso le incertezze coinvolte nelle stime sono considerate

esplicitamente.

Sebbene esistano approcci statistici più sofisticati, in base ai quali la

pericolosità viene stimata in funzione del tempo trascorso dall’ultimo evento

verificatosi in una data area (tecniche cosiddette time-dependent o non

Poissoniane), questi vengono adottati per ora solo a livello sperimentale.

Page 85: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

85

4. La pericolosità sismica: la Situazione Italiana

4.1 La classificazione sismica

Le cronache riportano frequentemente il verificarsi in Italia di un terremoto con

conseguenze da gravi a catastrofiche. Da cui la necessità di fronteggiare

l'emergenza e la ricostruzione, ma anche di elaborare una strategia di difesa dai

terremoti.

Lo strumento di difesa adottato fino ad oggi in Italia è incentrato sulla

normativa sismica, che predispone i requisiti antisismici adeguati per le nuove

costruzioni in determinate zone del Paese. L'altra possibile difesa può avvenire

attraverso l'intervento sul patrimonio edilizio già esistente, operazione che deve

essere articolata a valle di complesse valutazioni socio-economiche, denominate

analisi di rischio, diffusasi solo negli ultimi anni. Entrambi gli strumenti di

protezione dagli effetti dei terremoti hanno un denominatore comune nella stima

della pericolosità sismica del territorio, ovvero nella stima dello scuotimento del

suolo, previsto in un certo sito durante un dato periodo di tempo, imputabile a

terremoti.

L’importanza dei risultati degli studi di pericolosità, in particolare, può essere

meglio compresa se consideriamo che su di essi si basa la classificazione

sismica del territorio nazionale, che insieme alle normative per l’edificazione in

aree sismiche, concorre alla mitigazione e prevenzione dei danni prodotti dal

terremoto sull’ambiente. Mentre la classificazione definisce i parametri

progettuali dei nuovi edifici, l’applicazione e la pianificazione urbanistica

antisismica sono regolate invece dalla normativa.

Per quanto riguarda l’Italia, fino dalla metà degli anni Settanta, i criteri seguiti

in materia di classificazione del territorio erano estremamente eterogenei e

assolutamente non guidati da considerazioni di tipo scientifico. Infatti, la prima

classificazione sismica nazionale fu promulgata in seguito al disastroso

terremoto che distrusse Messina e Reggio Calabria nel 1908 provocando circa

80000 vittime, senza dubbio uno degli eventi più violenti mai verificatisi sul

territorio italiano. Tale classificazione consisteva in una lista di comuni

Page 86: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

86

danneggiati dal sisma e veniva successivamente aggiornata dopo ogni forte

terremoto che colpiva la penisola.

Soltanto nel 1974 fu emanata la prima legge (legge 2 febbraio 1974 n. 64 o n.

64/74) che prescriveva i criteri generali per la costruzione in zone sismiche. La

64/74 delega la definizione delle norme tecniche e la classificazione del

territorio a successivi decreti ministeriali ed è pertanto aggiornabile qualora le

nuove conoscenze in materia lo suggeriscano. Tale classificazione prevedeva un

elenco di comuni suddivisi in due categorie, in funzione del livello di

pericolosità espresso in termini della massima intensità storicamente risentita

all’interno del area comunale (1° categoria = Imax tra IX e XII; 2° categoria = Imax tra VI e IX).In seguito al terremoto che colpì il Friuli il 6 maggio 1976, furono

avviati in Italia molti studi finalizzati alla revisione della precedente

classificazione sismica. Tra i risultati di questi lavori, in particolare nell’ambito

del “Progetto Finalizzato Geodinamica (PFG)” del CNR, si ricorda l’Atlante

della classificazione sismica e il “Catalogo dei Terremoti Italiani dall’Anno

1000 al 1980” (Postpischl, 1985) e le mappe di scuotibilità d’Italia (Gruppo di

Lavoro Scuotibilità, 1979; Petrini et al., 1979), sulla base delle quali il CNR

avanzò una proposta per la riclassificazione sismica del territorio italiano. Tale

proposta fu accettata e tradotta in una serie di decreti legge emanati dal

Ministero dei Lavori Pubblici, tra il 1980 ed il 1984, in seguito al disastroso

terremoto che colpì l’Irpinia il 23 novembre 1980 provocando enormi danni

economici e circa 3000 vittime. La nuova classificazione, che risale al 1986 ed

attualmente in vigore, lasciava sostanzialmente inalterati i comuni già in prima e

seconda categoria, mentre prevedeva l’ingresso in seconda categoria di molti

comuni precedentemente non classificati sismici e la definizione di una terza

categoria (IMAX ≤ VI) per alcune località del Meridione per le quali, nonostante il

basso livello di pericolosità, erano attesi danni considerevoli per gli alti livelli di

vulnerabilità ed esposizione. Oltre alla suddivisione dei comuni nelle tre

categorie sismiche, vennero fissate per legge anche alcune norme tecniche

mediante le quali vennero definite le caratteristiche costruttive per i nuovi

edifici in aree sismiche, introducendo il coefficiente sismico di progetto C da

assegnarsi all’edificio sulla base delle sollecitazioni previste per la classe di

appartenenza del comune di edificazione. Un altro parametro a cui fa riferimento

Page 87: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

87

la classificazione è il grado di sismicità S ad uso prevalentemente

ingegneristico (vedi tabella 4.1).

Uno dei limiti di tale normativa consiste nel fatto che essa è applicabile

esclusivamente ad edifici di nuova costruzione.

La normativa italiana attuale (dati al 1991) prevede una classificazione sismica

degli 8102 comuni del territorio italiano (fig. 4.1). Di questi comuni, 2965 sono

classificati come sismici interessando il 45% del territorio nazionale ed il 70%

dell’Italia centro-meridionale. La popolazione sottoposta a rischio sismico è il

40% (fonti SSN).

Attualmente, è in fase di ultimazione una nuova classificazione sismica del

territorio nazionale, che prevede una complessiva diminuzione del numero di

comuni classificati sismici e di quelli in seconda categoria e, al contrario, un

aumento dei comuni classificati in prima e soprattutto in terza categoria. Questa

nuova classificazione è frutto dei più recenti studi sulla storia sismica del

territorio italiano ed all’impiego di più aggiornate metodologie di analisi. Nel

seguito verrà presentata una breve rassegna dello stato delle conoscenze e dei

più recenti risultati ottenuti nella stima della pericolosità sismica per il territorio

italiano.

Fig. 4.1 – Classificazione sismica del territorio italiano in vigore dal 1986. I diversi colori corrispondono alle diverse categorie sismiche: rosso = 1° cat.; arancione = 2° cat.; giallo = 3° cat.; grigio = non classificato. (dal sito Internet del SSN: http://www.dstn.it/ssn/LEGI/CLASS/italia.html).

Page 88: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

88

Tabella 4.1

4.2 La pericolosità sismica

Dal 1974, data della promulgazione della normativa sismica nazionale

contenente i criteri di costruzione antisismica e della classificazione sismica, gli

studi sismologici e geologici svolti nell'ambito del Progetto Finalizzato

Geodinamica del Consiglio Nazionale delle Ricerche (CNR), hanno portato ad

un sostanziale sviluppo delle conoscenze sulla sismicità del territorio nazionale e

permesso la formulazione di una proposta di classificazione sismica basata, per

la prima volta in Italia, su indagini di tipo probabilistico della sismicità italiana e

contenente un embrione di stima del rischio sismico sul territorio nazionale. Il

risultato di questi studi, presentato al governo e tradotto in una serie di decreti,

costituisce la base per la classificazione sismica italiana attualmente in vigore.

Sono passati più di venti anni da allora, e la comunità scientifica ha compiuto

altri significativi passi nella comprensione del fenomeno sismicità e nella

valutazione e sviluppo di tecniche per la riduzione delle sue conseguenze. Come

in tutti i settori della ricerca i risultati non sono esaustivi ma consentono però un

aggiornamento della classificazione sismica del territorio. Nell'ambito delle

attività di ricerca del Gruppo Nazionale per la Difesa dai Terremoti (GNDT) del

CNR, il progetto "Pericolosità Sismica del Territorio Nazionale" si è posto quale

obiettivo ottenere una nuova stima della pericolosità sismica d'Italia, utilizzando

metodologie statistiche internazionalmente convalidate, per fissare le

conoscenze disponibili alla prima metà degli anni '90.

Page 89: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

89

Hanno concorso alla realizzazione di tale progetto le attività di tre Linee di

Ricerca del GNDT, che possono semplicisticamente rappresentare gli

"ingredienti" necessari per la stima della pericolosità. La Linea "Sismicità" ha

contribuito al miglioramento delle conoscenze sismologiche ed alla valutazione

della sismicità nazionale, la Linea "Sismotettonica" ha guidato l'interpretazione

del "dove e perché" avvengono i terremoti, la Linea "Pericolosità" ha esplorato

gli aspetti metodologici della stima della pericolosità, ed è quindi stata coinvolta

nelle fasi di calcolo vero e proprio. Senza l'apporto originale e la sinergia di

queste ricerche non sarebbe stato possibile giungere a risultati culturalmente e

scientificamente validi e nuovi.

Nell'ambito del progetto GNDT per la nuova proposta di classificazione

sismica del territorio nazionale è stato scelto il metodo di Cornell (vedi par

3.3.3.1) preso a riferimento anche da numerosi progetti internazionali.

Come si è visto, gli elementi basilari sono una zonazione sismogenetica

dell'area studiata, un catalogo dei terremoti ed una o più relazioni di

attenuazione del parametro sismologico scelto quale indicatore di pericolosità.

Nell'ambito delle attività del GNDT, è stata elaborata una zonazione

sismogenetica del territorio italiano e regioni limitrofe che considera 80

sorgenti, omogenee dal punto di vista strutturale e sismogenetico (modello del

GNDT par. 4.2.2). È stato poi predisposto un nuovo catalogo sismico finalizzato

alla pericolosità per i terremoti avvenuti nell'intervallo temporale dall'anno 1000

al 1980 sul territorio nazionale e regioni limitrofe (NT4.1 e DOM4.1) che

consiste di oltre 3000 eventi principali (le repliche sono escluse). Per tenere

conto degli effetti d’attenuazione, provocati dalla distanza sito-sorgente

sull’indicatore di pericolosità di interesse, ovvero l'accelerazione orizzontale di

picco PGA, sono state utilizzate le relazioni di attenuazione proposte da

Ambraseys e da Sabetta e Pugliese. Per l’intensità macrosismica I sono state

invece sviluppate nuove relazioni empiriche. I risultati sono descritti nel par.

4.2.3.

Page 90: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

90

4.2.1 La storia sismica

4.2.1.1 I cataloghi sismici italiani

Come visto in precedenza, la conoscenza della sismicità passata è uno

strumento essenziale per la valutazione della pericolosità sismica.

La raccolta e la successiva analisi delle informazioni riguardanti gli effetti dei

terremoti verificatisi nel passato si sono rivelate, già da molto tempo, di enorme

interesse. Intorno alla metà dell’Ottocento, infatti, l’esistenza di una tradizione

europea di studi sulla sismicità storica permise allo studioso inglese Robert

Mallet di compilare uno dei più vasti cataloghi sismici (Mallet, 1852-1854) e di

tracciare una carta sismica dell’intero Mediterraneo.

In Italia l’interesse per questo genere di raccolte fu molto precoce, stimolato da

una ricca ed antica tradizione di fonti documentarie e dal frequente ripetersi di

terremoti distruttivi. Molto antica, in quanto risalente al mondo classico, è infatti

l’osservazione che i terremoti hanno la tendenza a manifestarsi negli stessi

luoghi e che vi fossero zone più sismiche di altre.

Sebbene nel nostro Paese, già a partire dal XVI secolo si fosse formata una

tradizione di cataloghi sismici, soltanto all’inizio del Novecento lo studioso

Mario Baratta pubblicò a Torino una raccolta contenente materiale informativo

su tutti gli eventi sismici avvenuti in Italia, di cui era stato possibile reperire

notizie. Questa fu pubblicata con il titolo: “I terremoti d’Italia. Saggio di storia,

geografia e bibliografia sismica” (Baratta, 1901). L’organicità di tale lavoro, al

quale l’autore aveva lavorato da solo per dieci anni, consentì di compiere enormi

passi avanti nella conoscenza delle caratteristiche delle diverse aree sismiche del

territorio italiano. Tuttavia, l’opera di Baratta presentava alcuni limiti, dal

momento che riportava alcuni terremoti risultati poi, alla luce di recenti

revisioni, mal stimati o addirittura falsi, ovvero mai verificatisi. Frequenti sono

anche gli errori di cronologia, dovuti ai differenti sistemi di datazione antica e

moderna adottati in Italia, che hanno causato duplicazioni di eventi.

Negli anni Settanta l’ENEL, in collaborazione con l’Istituto Nazionale di

Geofisica (ING) ed il CNEN (attuale ENEA), ha affrontato il problema

dell’informatizzazione del catalogo dei terremoti italiani, pubblicando una

raccolta con oltre 20000 eventi avvenuti dall’anno 1000 al 1975. Lo stesso ente

Page 91: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

91

ha poi prodotto il "catalogo ENEL-ISTAT 1971 delle località abitate italiane".

Quest’ultimo catalogo, composto da circa 70.000 località, costituisce il

riferimento geografico (denominazione e coordinate delle località) per i

successivi cataloghi sismici. Successivamente, le ricerche svolte dal “Gruppo

Catalogo dei Terremoti” (GCT) hanno portato quasi a raddoppiare il numero di

eventi storici italiani confluiti nel “Catalogo dei Terremoti Italiani dall’Anno

1000 al 1980” (Postpischl, 1985).

Negli ultimi anni, l’Istituto Nazionale di Geofisica da un lato, ed il Gruppo

Nazionale per la Difesa dai Terremoti (GNDT) dall’altro, hanno completato un

lungo e complesso lavoro di rivalutazione ed omogeneizzazione dei risultati

delle ricerche sismiche storiche, condotte in diversi ambiti, pervenendo ambedue

alla compilazione di nuovi cataloghi sismici. All’interno dell’ING, è stato

prodotto il “Catalogo dei Forti Terremoti in Italia dal 461 a.C. al 1980” (CFTI,

Boschi et al., 1995), cui ha fatto seguito una seconda edizione nella quale sono

stati aggiunti ulteriori eventi (“Catalogo dei Forti Terremoti in Italia dal 461

a.C. al 1990”, Boschi et al., 1997). Oltre alle principali informazioni

parametriche (es. data del terremoto, coordinate epicentrali, magnitudo ed

intensità epicentrale) tale compilazione riporta, per ogni evento, la lista completa

delle località per le quali sono disponibili informazioni macrosismiche.

Parallelamente, in ambito GNDT, sono stati concepiti due cataloghi relativi ai

terremoti verificatisi nella penisola dal 1000 al 1980. Il primo è un catalogo

epicentrale (“NT4.1 - un catalogo parametrico di terremoti di area italiana al di

sopra della soglia del danno”, Camassi e Stucchi, 1996), aggiornato nella

versione 4.1.1 fino al 1992. Il catalogo è costituito da una sequenza di stringhe,

una per terremoto, che contengono i parametri scelti dal compilatore per

rappresentare alcune caratteristiche di ciascun terremoto (localizzazione

epicentrale, tempo origine, magnitudo, ecc.) e copre la finestra temporale 1000-

1980. L'estensione al 1995 è stata resa disponibile nel 1996 e considera gli

epicentri di "area italiana", ossia inclusi in un poligono che comprende le zone

sismogenetiche di interesse per la valutazione della pericolosità sismica in Italia,

secondo il modello proposto da Scandone et al. (1992), si veda il par. 4.2.2. Fra

il catalogo NT4.1 e la zonazione sismogenetica citata esiste una relazione molto

stretta. In pratica, NT4.1 può essere visto come la somma di 82 sub-cataloghi

indipendenti, relativi alle 80 zone sismogenetiche e alle 2 zone accessorie di

Page 92: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

92

background. Il catalogo NT4.1 non comprende i terremoti delle zone

sismogenetiche balcaniche e delle relative zone di background. Esso comprende

in generale eventi con Ie ≥ V-VII oppure Ms ≥ 4.0. Uno degli aspetti che più

caratterizzano l'orientamento del catalogo, ai fini di valutazione della

pericolosità sismica, è costituito dal fatto che NT4.1 non contiene registrazioni

di scosse considerate repliche o precedenti l’evento principale (aftershocks e

foreshocks). La rimozione è stata effettuata con un criterio “freddo”,

rimuovendo gli eventi all'interno di finestre spazio-temporali di raggio 30 km e

di +/- 90 giorni, indipendentemente da Ie e M, conservando solo l'evento più

grande.

Ulteriori informazioni sul catalogo parametrico NT4 sono reperibili nel sito

Internet: http://emidius.itim.mi.cnr.it/NT/CONSNT.html.

Il secondo catalogo è il “DOM4.1 - un database di osservazioni macrosismiche

di terremoti di area italiana al di sopra della soglia del danno”, redatto da

Monachesi e Stucchi (1997). DOM4.1 è un catalogo di sito contenente quasi

37000 dati di intensità risentita in circa 11000 località italiane e costituisce

un’indispensabile fonte di dati per le analisi probabilistiche di pericolosità

sismica. In sintesi, DOM4.1 è un archivio di osservazioni macrosismiche di

terremoti di area italiana al di sopra della soglia del danno contenente i dati

macrosismici, provenienti da studi GNDT e di altri enti, che sono stati utilizzati

per la compilazione di NT4.1.

Evoluzioni di DOM4.1 sono state utilizzate per:

• La compilazione della "Mappa delle massime intensità macrosismiche

osservate nei comuni italiani" (Molin et al., 1996), in combinazione con i

dati di CFTI (Boschi et al., 1995), si veda la figura 4.2;

• La determinazione dei parametri di attenuazione (Peruzza, 1996) utilizzati

per la redazione della "Mappa di pericolosità sismica del territorio

nazionale" (Slejko, 1996);

• La redazione degli “Scenari di danno speditivi da dati storici di terremoti"

(ISMES, 1997).

DOM4.1 non include i seguenti terremoti:

� al di sotto della soglia di danno Io ≤ 5, Ms ≤ 4.0

� profondi (con profondità ipocentrale Σ 35 km);

Page 93: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

93

� considerati repliche o foreshocks di eventi principali (si vedano le

assunzioni del metodo di Cornell par. 3.3.3.1);

� relativi a zone balcaniche;

� relativi a terremoti prima del 1000 o successivi al 1980.

Ulteriori informazioni sul catalogo parametrico DOM4.1 sono reperibili nel

sito Internet: http://emidius.itim.mi.cnr.it/DOM/home.html.

È quindi evidente come, rispetto alle precedenti compilazioni parametriche che

si limitavano a riportare sintetiche informazioni epicentrali, il catalogo DOM4.1

risulta assai più ricco di dati, grazie ad approfondite indagini storiografiche

attraverso le quali è stato possibile ricostruire un elevato numero di campi

macrosismici delle intensità valutate con criteri omogenei.

A partire dal 1988 il GNDT ha raccolto, verificato e ricompilato la

maggioranza dei dati macrosismici disponibili per terremoti relativi al periodo

1000-1980, provenienti da fonti differenti, in parte pubblici, in parte riservati, e

da studi isolati. È stata così data priorità agli eventi "principali" di ciascuna

sequenza, con esclusione quindi delle repliche individuate secondo il criterio

adottato per la compilazione dei cataloghi NT. In definitiva, i dati disponibili

sono quelli relativi agli eventi "principali", cioè quelli relativi ai terremoti

inseriti nel predetto catalogo. In totale, utilizzando i dati della banca GNDT la

mappa delle massime intensità osservate può essere prodotta a partire da 943

eventi di intensità epicentrale superiore o uguale alla soglia del danno (Ie ≥V-

VI). Per questi eventi si dispone complessivamente di circa 33.000 osservazioni

riferite a 9070 località, di cui 8518 in territorio italiano.

Il "Catalogo dei Forti Terremoti in Italia" (CFTI), considerando solo

marginalmente le informazioni concernenti terremoti con Ie≤ 8, caratterizza 226

eventi per i quali sono disponibili dati di intensità relativi a circa 8110 località,

di cui circa 7800 in territorio italiano. Di questi eventi circa 215 possono essere

considerate scosse "principali"; per 205 di questi ultimi sono disponibili anche i

dati di intensità della banca dati GNDT, provenienti da studi differenti e

indipendenti.

La disponibilità di una vasta base di informazioni di buona qualità ha dunque

consentito negli ultimi anni di incrementare sensibilmente le conoscenze relative

all’attività sismica nella penisola. Tuttavia, le differenze esistenti tra il catalogo

CFTI e le compilazioni NT e DOM, hanno talvolta reso difficoltosa la scelta dei

Page 94: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

94

parametri di riferimento, soprattutto ai fini di interventi di tipo normativo. Di

conseguenza, su richiesta del Dipartimento della Protezione Civile, allo scopo di

superare tali problemi e poter disporre di un catalogo unificato da adottare come

riferimento per il territorio nazionale, è stato di recente pubblicato il “Catalogo

Parametrico dei Terremoti Italiani” (Gruppo di Lavoro CPTI, 1999), risultato

da una complessa integrazione tra le tre compilazioni.

4.2.1.2 La carta delle massime intensità

La compilazione di una mappa affidabile delle massime intensità

macrosismiche, realmente osservate, richiede la disponibilità di una storia

sismica sufficientemente completa nell'arco di tempo prescelto per un insieme di

località abbastanza denso. In passato queste condizioni erano ben lontane

dall'essere soddisfatte. Di conseguenza, la maggior parte delle cosiddette carte

delle "massime intensità osservate" prodotte sia in Italia (PFG, ING/SGA), sia in

Europa, sono basate su dati estrapolati da carte delle isosisme o addirittura

calcolati a partire da un catalogo e da leggi di attenuazione, a loro volta ottenute

da isosisme. Queste carte non rappresentano dunque le massime intensità

"realmente osservate", tant’è che esse non riportano la massima intensità

risentita da ogni singolo centro abitato. Per precisare questo concetto, il PFG

adottò il termine di massime intensità "osservabili", ovvero intensità che si

sarebbero potute osservare, in passato, in assenza di anomalie geologiche locali

o di vulnerabilità, nell'ipotesi che catalogo e leggi di attenuazione scelti fossero

effettivamente rappresentativi delle caratteristiche della sismicità nella regione

di interesse.

Oggi, in Italia, la situazione si presenta abbastanza diversa. Gli studi effettuati

da ENEA, PFG, ENEL, GNDT, ING/SGA e da singoli autori hanno reso

disponibili una grande quantità di osservazioni macrosismiche, la maggior parte

delle quali esprimibili in termini di scale macrosismiche. È dunque pensabile di

poter compilare una mappa di massime intensità osservate che si basi, in misura

prevalente, su valori realmente osservati, ricorrendo ad aggiustamenti solo per

quelle località ove questo si renda necessario, a misura del dettaglio dell'analisi.

Page 95: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

95

I dati DOM e CFTI, coprendo un totale di circa 10.000 località, hanno una

copertura geografica sufficientemente omogenea, con distribuzione temporale

che privilegia gli ultimi due secoli. I valori di intensità vengono riferiti al

territorio comunale che è considerato l’unità operativa base per l'attuazione delle

normative. La mappa delle massime intensità osservate è stata quindi compilata

"per comune". Qualora per uno stesso comune siano disponibili dati riferiti a più

località, è stata attribuita all'intero territorio comunale la massima fra le intensità

osservate nelle varie località appartenenti al comune stesso. Questa scelta

rappresenta solo una prima approssimazione. Può infatti risultare penalizzante

per località non soggette a fenomeni sistematici di amplificazione o per porzioni

del territorio comunale molto distanti dalle località alle quali si riferisce il grosso

delle informazioni disponibili. Si nota che tale effetto è tanto più significativo

quanto più il comune è esteso, come ad esempio nel caso di Roma. Occorre

infine osservare che alle cosiddette "isole amministrative" andrebbe attribuito, in

via di principio, un valore di intensità massima osservata coerente con la loro

collocazione geografica piuttosto che con la loro afferenza amministrativa.

Le circa 10.000 località per cui sono disponibili osservazioni ricadono in 5660

comuni, a fronte di 8101 comuni italiani (censimento ISTAT 91). In particolare,

per 4065 comuni esistono dati sia DOM che CFTI, per 950 comuni esistono solo

dati DOM, per 645 comuni esistono solo dati CFTI, mentre per 2441 comuni

non si hanno dati osservati. La maggior parte di questi ultimi comuni si trova in

Sardegna, regione poco sismica, nonché in Piemonte e Lombardia, regioni in cui

si osserva una forte frammentazione con numerosissimi comuni di piccola

superficie.

Nell'elaborazione dei dati, volta alla compilazione della carta delle massime

intensità, sono stati affrontati diversi problemi. Uno di questi è stata la parziale

congruenza tra i dati DOM e CFTI. Un altro è la limitata disponibilità di dati,

limitata per alcuni comuni (poche osservazioni o addirittura una soltanto). Si

tratta in generale di piccoli comuni entrati in gioco solo in occasione di forti

terremoti, o territori comunali in cui sono segnalate intensità basse, per lo più in

occasione di terremoti recenti. Per questi ultimi, l'uso dell'unico dato disponibile,

può risultare non corretto e né tanto meno cautelativo. In questi casi, così come

in quelli in cui l'intensità massima risulta molto più bassa di quanto suggerito dai

valori osservati nei comuni limitrofi, o nei casi estremi in cui non esiste alcun

Page 96: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

96

dato osservato, si è proceduto assegnando, comune per comune, un valore

"ponderato" di intensità (Imax/pon), stimato per estrapolazione dai valori

osservati nei comuni limitrofi oppure calcolando un risentimento massimo a

partire dal catalogo NT mediante opportune leggi di attenuazione.

Seguendo un'analoga strategia, oppure in presenza di evidenti imprecisioni nei

dati, in poche decine di casi si è ritenuto opportuno "abbassare" il valore

osservato di Imax. Così non è stato nel caso di alcune grandi città (ad esempio

Roma, Milano, ecc.), in quanto si è ritenuto che l'amplificazione degli effetti

osservati relativamente ai comuni limitrofi possa riflettere una reale e maggior

vulnerabilità complessiva di questo tipo di abitati.

In totale Imax/oss è stata assegnata ai 2441 comuni per i quali non sono

disponibili osservazioni, e ad altri 1810, in relazione alle considerazioni espresse

più sopra. Ad ogni comune risulta quindi associato un valore di intensità

massima osservata (Imax /oss), oppure "ponderata", espresso in una delle cinque

classi seguenti: ≥VI, VII, VIII, IX, ≤X. Ai fini della stesura della Carta delle Imax

non si è ritenuto utile differenziare i valori al di sotto del VI grado ed al di sopra

del X. I valori incerti sono stati associati alla classe superiore (es.: VI-VII è stato

considerato equivalente a VII). Va sottolineato che questa scelta, unitamente a

quella di associare all'intero territorio comunale il valore massimo di intensità

osservata in almeno una località appartenente al comune stesso e di assegnare un

valore "ponderato" nei casi in cui il record storico è molto incompleto,

determina una rappresentazione tendenzialmente "pessimista" degli effetti dei

terremoti del passato. La distribuzione geografica dei risultati è presentata in

Fig. 4.2. Si sottolinea che queste scelte, unitamente a quelle precedentemente

illustrate, di assumere per il comune il valore massimo osservato nel comune

stesso e, nel caso di disponibilità di dati sia DOM che CFTI, di scegliere il

valore più elevato, orientano i risultati in senso cautelativo e possono pertanto

risultare sovrastimati.

Ulteriori informazioni sulla carta delle massime intensità osservate, organizzata

per regione e provincia, è disponibile nel sito Internet:

http://emidius.itim.mi.cnr.it/GNDT/IMAX/imax.html.

Page 97: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

97

Fig. 4.2 - Massime intensità macrosismiche osservate nei comuni italiani (dal sito Internet:

http://emidius.itim.mi.cnr.it/GNDT/IMAX/imax.html; dove sono disponibili le carte geografiche

regionali e le tabelle con i dati di Imax per i singolo comune).

4.2.2 La zonazione sismogenetica del territorio nazionale

La zonazione sismogenetica (Scandone et al., 1994) è stata tracciata con lo

scopo prevalente di servire da input per valutazioni di pericolosità sismica

effettuate dal GNDT applicando la metodologia di Cornell o altre metodologie

(metodo "misto", ecc.).

Questa zonazione sismogenetica rappresenta dunque una delle possibili

zonazioni sismogenetiche: lo specifico ruolo rivestito nel calcolo della

pericolosità, insieme al catalogo dei terremoti, alla modalità di valutazione dei

tassi di sismicità e alle leggi di attenuazione utilizzate, ne ha profondamente

determinato le caratteristiche, in particolare per quanto riguarda il numero e le

dimensioni delle zone sismogenetiche.

Il modello sismotettonico adottato nel tracciamento delle zone sismogenetiche

è basato sulla correlazione incrociata di tre basi di dati che riguardano:

Page 98: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

98

• il modello strutturale 3D della penisola italiana e mari adiacenti che ha

permesso di ricostruire la geometria delle strutture potenzialmente attive e di

valutare le caratteristiche meccaniche delle rocce alle varie profondità;

• la distribuzione spaziale dei terremoti storici e attuali per le diverse classi di

magnitudo. Particolarmente utili ai fini della zonazione sono risultate le

numerose ricostruzioni di campi macrosismici esistenti. In molti casi sono

state riscontrate strette correlazioni tra strutture geologiche potenzialmente

attive e terremoti;

• in altri casi la ricca documentazione macrosismica disponibile ha indirizzato

la revisione di aree dove non erano state riconosciute strutture attive. In

qualche caso, infine, l'assenza di terremoti documentati in aree caratterizzate

da deformazioni tettoniche recenti ha suggerito ulteriori approfondimenti

nelle ricerche storiche nonché l'applicazione di indagini paleosismologiche;

• il modello cinematico dell'area mediterranea centrale riferito agli ultimi 6

milioni di anni. Il modello ha permesso di ricostruire l'andamento spazio-

temporale di parametri estremamente importanti nell'analisi sismotettonica.

L'approccio strutturale-cinematico, in definitiva, è sembrato il più promettente

per giungere ad un quadro interpretativo coerente della sismicità in una regione

tettonicamente complessa quale l'Italia. In conclusione, la sismicità dell'area

italiana si inserisce in un quadro geodinamico complesso nel quale trovano

coesistenza processi cinematici diversi. La figura 4.3, oltre alla zonazione

sismogenetica, mostra il comportamento cinematico atteso delle strutture

sismogenetiche nelle varie zone del territorio nazionale.

Nelle valutazioni di pericolosità che utilizzano l'approccio Cornell ogni zona

sorgente, rappresentata da un poligono, viene assunta come omogenea.

All'interno di essa i terremoti possono verificarsi in ogni punto con la medesima

probabilità e sono distribuiti casualmente ("spalmatura" degli eventi). È bene

sottolineare che le zone sismogenetiche, concepite in questa prospettiva,

rappresentano una combinazione ragionata di elementi geologici e sismologici e

non, viceversa, un insieme di elementi geologici nel quale si innesta,

successivamente, un catalogo sismico. In altre parole, la geometria delle zone e i

tassi di sismicità sono entrambi elementi costitutivi della zonazione.

Ora, l'assunzione che terremoti di magnitudo medio-alta possano verificarsi

con la stessa probabilità in un punto qualsiasi di una certa zona rappresenta,

Page 99: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

99

ovviamente, un’eccessiva semplificazione. Ciascuna zona sismogenetica è

caratterizzata da un sistema di strutture sismogenetiche coerenti al proprio

interno, in termini di geometria e cinematica, con i sistemi tettonici attivi delle

zone adiacenti. Ciascuna zona rappresenta in sostanza la proiezione in superficie

di un segmento, più o meno lungo, di un sistema di faglie attive capaci di

generare terremoti. Ogni zona sismogenetica contiene quindi uno o più segmenti

di faglie maggiori, responsabili degli eventi di più alta energia, e numerose

faglie minori associate, responsabili degli eventi di più bassa energia. In questo

senso i tassi di sismicità di ciascuna zona, comunque vengano calcolati,

rappresentano valori che spesso mediano fra caratteristiche di rilascio

dell'energia molto diverse fra loro. L’eccessiva semplificazione, che è stata

introdotta assumendo zone al loro interno omogenee, ha rappresentato dunque

un prezzo coscientemente pagato per procedere in tempi ragionevoli a

valutazioni di pericolosità relative all'intero territorio nazionale che tenessero

conto in qualche modo delle informazioni allora disponibili.

Va infine osservato che, di fatto, la zonazione sismogenetica adottata identifica

80 zone indipendenti ciascuna dall'altra e che il catalogo sismico, costruito in

stretta connessione con la zonazione, può essere inteso come la somma di 80

sottocataloghi indipendenti (più due riferiti alle zone accessorie di background).

L'operazione di "spalmatura" che viene effettuata nelle procedure di tipo

Cornell fa sì che, a parità di eventi contenuti in catalogo, i valori dei descrittori

dello scuotimento, atteso in un sito in un certo intervallo temporale, varino

sensibilmente al variare della dimensione dell'area sorgente.

Il criterio adottato nell'assegnare alle zone una certa larghezza è stato quello di

mediare tra terremoti maggiori (che potrebbero essere contenuti in poligoni più

stretti) e terremoti minori, ma comunque superiori alla soglia del danno, che

sono di regola circoscritti da zone più larghe. Circa la lunghezza, il criterio

seguito è stato quello geometrico-cinematico (continuità o meno delle strutture e

omogeneità di comportamento cinematico) integrato dalle conoscenze

disponibili sulla distribuzione spazio-temporale della sismicità. Il numero di

zone nelle quali è stato diviso il territorio nazionale è la diretta conseguenza

dell'applicazione di questi criteri e potrebbe variare nelle future revisioni del

modello per future e differenti applicazioni.

Page 100: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

100

Fig. 4.3 - Zonazione sismogenetica del GNDT (dal sito Internet: http://emidius.itim.mi.cnr.it/GNDT/P511/home.html).

a. zone legate alla convergenza Adria-Europa. b. Zone di trasferimento Alpi-Appennino e Mar Ligure. c. Zone legate allo sprofondamento passivo della litosfera adriatica sotto il sistema di catena

nell'Arco Appenninico Settentrionale. d. Zone legate alla disattivazione del sistema catena-avanfossa nell'Appennino meridionale e alla

rotazione antioraria dell'Adria. e. Zone dell'Arco Calabro, verosimilmente legate alla subduzione passiva della litosfera ionica, e

Sicilia Settentrionale. f. Zone legate alla divergenza Africa-Adria. g. Zone di avampaese, con diversi comportamenti cinematici. h. Zone in aree vulcaniche attive. i. Zone con comportamento cinematico indefinito.

4.2.3 Le carte di pericolosità

Per il calcolo della pericolosità è stato utilizzato il codice Seisrisk-III, basato

sul metodo di Cornell, che richiede come input i parametri: geometria delle zone

sismogenetiche, sismicità e relazioni di ricorrenza per ciascuna zona

sismogenetica, relazioni di attenuazione. Nonostante il codice consenta la

possibilità di considerare l'incertezza associata alla definizione spaziale delle

Page 101: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

101

zone sismogenetiche, attraverso l’opzione "bordi morbidi", è stato deciso di non

utilizzarla.

Il codice Seisrisk-III fornisce come output le frequenze di osservazione

(sismicità macrosismica al sito), le frequenze di eccedenza ed il valore del

periodo medio di ritorno associati a ciascun valore dell'intensità. Va sottolineato

che, sulla base della ipotizzata distribuzione di Poisson, associare ad un evento

un periodo di ritorno di 100 anni, significa dire che in 100 anni tale evento ha

una probabilità di eccedenza uguale a 11 −−−−−−−− e e cioè pari a circa il 63% (si veda

punto V. par. 3.3.3.1). Infatti la probabilità p(1,∆T) di avere almeno un evento,

di periodo medio di ritorno T nel tempo di esposizione ∆∆∆∆T, è data da:

T

T

eTp

∆∆∆∆−−−−

−−−−====∆∆∆∆ 1),1( (4.1)

In base alla (4.1) è possibile calcolare altre statistiche di interesse, come i

valori di accelerazione del suolo aventi una probabilità di eccedenza assegnata

in un certo intervallo di tempo.

La stima della pericolosità è stata effettuata suddividendo il territorio italiano

in maglie geografiche di circa 8 x 10 km e calcolando, per ciascuna maglia, il

valore di intensità MCS o il valore di PGA, che ha una probabilità di non

eccedenza del 90% (o di eccedenza del 10%) in tempi di 10, 50 e 100 anni. Tali

tempi di osservazione, in base alla (4.1), corrispondono rispettivamente a periodi

di ritorno di circa 95, 475, e 950 anni. Le scelte dei periodi di ritorno tengono

conto, sia della copertura temporale e dei periodi di completezza del catalogo

utilizzato, sia dei tempi di vita medi delle strutture normalmente utilizzati in

campo ingegneristico.

Le carte di pericolosità sono state ottenute calcolando le curve di livello che

interpolano i valori delle singole maglie geografiche. I risultati di questa

metodologia sono in genere riferiti ad un certo livello di probabilità in un dato

periodo di tempo. Le figure presentate più avanti illustrano il valore

dell'indicatore di pericolosità che si prevede non venga superato nel 90% dei

casi in 50 anni. I risultati possono anche essere interpretati come quel valore di

scuotimento (in I o PGA) che nel 10% dei casi al massimo si prevede verrà

superato in 50 anni. Questo equivale allo scuotimento sismico che mediamente

si verifica ogni 475 anni (cosiddetto periodo di ritorno). Si tratta di valori

convenzionali utilizzati nel mondo ed in particolare in campo europeo anche

Page 102: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

102

come valore di riferimento per l'Eurocodice sismico (EC8). Non corrispondono

pertanto né al massimo valore possibile per la regione, né al massimo valore

osservato storicamente, ma sono ragionevoli compromessi legati alla presunta

vita media delle strutture abitative.

I due indicatori di pericolosità qui utilizzati (PGA e I)rappresentano due aspetti

diversi dello stesso fenomeno. L'accelerazione orizzontale di picco PGA di Fig.

4.4 illustra l'aspetto più propriamente fisico: si tratta di una grandezza di

interesse ingegneristico che viene utilizzata nella progettazione in quanto

definisce le caratteristiche costruttive richieste agli edifici in zona sismica.

L'intensità macrosismica I di Fig. 4.5 rappresenta, invece, in un certo senso le

conseguenze socio-economiche. Descrivendo infatti il grado di danneggiamento

causato dai terremoti, una carta di pericolosità in intensità macrosismica si

avvicina, con le dovute cautele derivate da diverse approssimazioni insite nel

parametro intensità, al concetto di rischio sismico.

Le informazioni che si possono dedurre dalle due carte sono quindi diverse. Va

ricordato che in entrambi i casi, i risultati forniti non contemplano le situazioni

di anomalia particolare, legati a possibili amplificazioni locali dello scuotimento

per caratteristiche geomorfologiche sfavorevoli oppure a situazioni di alta

vulnerabilità degli edifici. Globalmente, comunque, i due prodotti hanno

caratteristiche simili.

Nel dettaglio della Fig. 4.4, i valori massimi di pericolosità (accelerazioni

attese superiori a 0,36 g, dove con g si indica l'accelerazione di gravità) sono

raggiunti in Friuli, in alcune zone dell'Appennino Centrale e Meridionale, lungo

l'arco Calabro fino allo stretto di Messina. Piccole porzioni della penisola (le

zone pianeggianti del Piemonte e Lombardia, l'Alto Adige, il Tavoliere delle

Puglie) e la Sardegna risultano caratterizzate da valori di scuotimento atteso

molto bassi (accelerazioni attese inferiori a 0,08 g). È da segnalare che

l'attenuazione dell'accelerazione di picco selezionata è riferita ad un terreno

medio ed è stata tarata su un vasto parco di dati europei per garantire robustezza

ai risultati. La dinamica della carta d'intensità macrosismica di Fig. 4.5 individua

ancora un'area di elevata pericolosità sismica in Friuli (valori corrispondenti al

IX grado della scala MCS) mentre un massimo interessa questa volta tutta la

parte assiale della penisola, dall'Appennino Umbro-Marchigiano fino a quello

Lucano, per poi proseguire lungo l'arco Calabro fino a Messina. In due fasce

Page 103: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

103

costiere calabre vengono raggiunti i valori massimi di pericolosità,

corrispondenti agli effetti del X grado MCS. Va segnalato che la convenzione

utilizzata per la rappresentazione grafica associa i gradi intermedi, solitamente

usati per indicare l'incerta attribuzione tra due classi di intensità, alla classe

superiore. Così, ad esempio, per la maggior parte della Pianura Padana, si

prevede che possano verificarsi mediamente ogni cinque secoli effetti del V-VI

o VI grado MCS, corrispondenti alla soglia dei primi danneggiamenti. La

Sardegna resta sensibilmente meno pericolosa del resto d'Italia.

Ulteriori informazioni si possono trovare nel sito:

http://emidius.itim.mi.cnr.it/GNDT/P511/home.html.

Fig. 4.4 - Mappa della pericolosità sismica in Italia riferita all’accelerazione orizzontale di picco PGA con

periodo medio di ritorno T = 475 anni.

Page 104: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

104

Fig. 4.5 - Mappa della pericolosità sismica in Italia riferita all’Intensità macrosismica con periodo medio di

ritorno T = 475 anni.

Page 105: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

105

Appendici

Scala MCS (Mercalli - Cancani - Sieberg) di intensità del

terremoto (SIEBERG A., 1930, Geologie der Erdbeben. Handbuch der Geophysik, 2, 4, pp. 550-555)

I grado. Impercettibile: rilevato soltanto da sismografi. II grado. Molto leggero: sentito soltanto da persone estremamente sensibili o nervose, in perfetta quiete e quasi sempre nei piani superiori dei caseggiati. III grado. Leggero: anche in zone densamente abitate viene percepito come terremoto soltanto da una piccola parte degli abitanti nell'interno delle case, come nel caso del passaggio di un pesante mezzo. Da alcuni viene riconosciuto come terremoto soltanto dopo averne parlato con altri. IV grado. Moderato: all'aperto il terremoto è percepito da pochi. Nelle case è notato da numerose persone ma non da tutti, a seguito del tremolio o di oscillazioni leggere di mobili. Cristalleria e vasellame, posti a breve distanza, urtano come al passaggio di un pesante autocarro su strada dissestata. Finestre tintinnano; porte, travi e assi in legno scricchiolano; cricchiano i soffitti. In recipienti aperti, i liquidi vengono leggermente mossi. Si ha la sensazione che in casa si sia rovesciato un oggetto pesante; si oscilla con tutta la sedia o il letto come su una barca. In generale questi movimenti non provocano paura a meno che le persone non si siano innervosite o spaventate a causa di terremoti precedenti. In rari casi i dormienti si svegliano. V grado. Abbastanza forte: nel pieno delle attività giornaliere, il sisma viene percepito da numerose persone nelle strade e se sensibili anche in campo aperto. In casa si avverte in seguito allo scuotere dell'intero edificio. Piante e piccoli rami di cespugli ed alberi si muovono con evidenza, come se ci fosse un vento moderato. Oggetti pendenti come lampade, tendaggi, lampadari non troppo pesanti entrano in oscillazione, campanelle suonano. Gli orologi a pendolo si fermano od oscillano con maggior periodo, a seconda della direzione della scossa se perpendicolare o normale al moto di oscillazione. A volte orologi a pendolo fermi riprendono il movimento. La luce elettrica guizza o viene a mancare in seguito a movimenti della linea. I quadri urtano, battono contro le pareti oppure si spostano; da recipienti colmi e aperti vengono versate piccole quantità di liquido; ninnoli ed oggetti del genere possono cadere come pure gli oggetti addossati alle pareti; arredi leggeri possono essere spostati di poco;

Page 106: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

106

mobili rintronano; porte ed imposte sbattono; vetri delle finestre si infrangono. Quasi tutti i dormienti si svegliano. Sporadici gruppi di persone fuggono all'aperto. VI grado. Forte: il terremoto viene notato da tutti con paura, molti fuggono all'aperto, alcuni hanno la sensazione d'instabilità. Liquidi si muovono fortemente; quadri, libri e cose simili cadono dalle pareti e dagli scaffali; porcellane si frantumano; suppellettili assai stabili, e perfino pezzi d'arredo vengono spostati se non rovesciati; piccole campane in cappelle e chiese, e orologi di campanili battono. Case isolate, solidamente costruite subiscono danni leggeri; spaccature all'intonaco, caduta del rinzaffo di soffitti e di pareti. Danni più forti, ma non ancora pericolosi, si hanno sugli edifici mal costruiti. Qualche tegola e pietra di camino cade. VII grado. Molto forte: notevoli danni vengono provocati ad oggetti di arredamento anche di grande peso. Grandi campane rintoccano. Corsi d'acqua, stagni e laghi si agitano e s'intorbidiscono a causa della melma mossa. Qua e là, parte delle sponde di sabbia e ghiaia scivolano via. Varia la portata delle sorgenti. Danni moderati a numerosi edifici costruiti solidamente: piccole spaccature nei muri; caduta di toppe piuttosto grandi dell'incalcinatura e dello stucco, a volte anche di mattoni. Caduta generale di tegole. Molti fumaioli vengono lesi da incrinature. Camini già danneggiati si rovesciano sopra il tetto danneggiandolo. Da torri e costruzioni alte cadono decorazioni mal fissate. Quando la casa è a pareti intelaiate, i danni all'incalcinatura e all'intelaiatura sono più gravi. In casi isolati distruzione di case mal costruite oppure riattate. VIII grado. Rovinoso: interi rami d'albero pendono rotti e perfino si staccano. Anche i mobili più pesanti vengono spostati lontano e a volte rovesciati. Statue, monumenti in chiese, in cimiteri e parchi pubblici, ruotano sul proprio piedistallo oppure si rovesciano. Solidi muri di cinta in pietra si rompono e crollano. Circa un quarto delle case è gravemente leso, alcune crollano, molte diventano inabitabili; gran parte di queste cadono. Negli edifici intelaiati cade gran parte della tamponatura. Case in legno vengono schiacciate o rovesciate. Spesso campanili di chiese e di fabbriche con la loro caduta causano danni agli edifici vicini più di quanto non avrebbe fatto da solo il terremoto. In pendii e terreni acquitrinosi si formano crepe. In terreni bagnati si ha l'espulsione di sabbia e di melma. IX grado. Distruttivo: circa la metà di case in pietra sono distrutte; molte crollano; la maggior parte diviene inabitabile. Case ad intelaiature sono divelte dalle proprie fondamenta e crollano; travi strappate a seconda delle circostanze contribuiscono alla rovina.

Page 107: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

107

X grado. Completamente distruttivo: gravissima distruzione di circa 3/4 degli edifici, la maggior parte crolla. Perfino costruzioni solide di legno e ponti subiscono gravi lesioni, alcuni vengono distrutti. Argini e dighe ecc., chi più, chi meno, sono danneggiati notevolmente, binari leggermente piegati e tubature (gas, acqua e scarichi) vengono troncate, rotte e schiacciate. Nelle strade lastricate e asfaltate si formano crepe e per pressione sporgono larghe pieghe ondose. In terreni meno densi e più umidi si creano spaccature fino alla larghezza di più decimetri; si notano parallelamente ai corsi d'acqua spaccature che raggiungono larghezze fino a un metro. Non solo pezzi di terreno scivolano dai pendii, ma interi macigni rotolano a valle. Grossi massi si staccano dagli argini dei fiumi e da coste scoscese; riviere basse subiscono spostamenti di masse sabbiose e fangose, per cui il livello del terreno viene notevolmente variato. Le sorgenti subiscono frequenti cambiamenti di livello dell'acqua. Da fiumi, canali e laghi ecc. le acque vengono gettate contro le sponde. XI grado. Catastrofico: crollo di tutti gli edifici in muratura, resistono soltanto le capanne di legno e le costruzioni ad incastro di grande elasticità. Anche i ponti più sicuri crollano a causa della caduta di pilastri in pietra o del cedimento di quelli in ferro. Binari si piegano fortemente e si spezzano. Tubature interrate vengono spaccate e rese irreparabili. Nel terreno si manifestano vari mutamenti di notevole estensione, a seconda della natura del suolo, si aprono grandi crepe e spaccature; soprattutto in terreni morbidi e acquitrinosi il dissesto è considerevole sia orizzontalmente che verticalmente. Ne segue il trabocco di sabbia e melma con diverse manifestazioni. Sono frequenti lo sfaldamento di terreni e la caduta di massi. XII grado. Grandemente catastrofico: non regge alcuna opera dell'uomo. Lo sconvolgimento del paesaggio assume aspetti grandiosi. Corsi d'acqua sia superficiali che sotterranei subiscono mutamenti vari, si formano cascate, scompaiono laghi, fiumi deviano.

Page 108: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

108

Simboli utilizzati

Simbolo Definizione Simbolo Definizione

a Accelerazione pn(I) Densità di probabilità di attribuzione di I

a Media stimata componente orizzontale accelerazione di picco P(Z>z)

Probabilità di eccedenza dell’accelerazione z

A Ampiezza sismogramma pon Parametro Intensità massima al sito ponderata dell’Atlante Imax in Italia

A* Ampiezza sismogramma terremoto standard PSAA Pseudo accelerazione assoluta

A0 Soglia di attenuazione PSRV Pseudo velocità assoluta

C Coefficiente sismico di progetto Q Fattore di Qualità

CAV Velocità Assoluta Cumulativa Q(I0|∆∆∆∆tj ) Probabilità di eccedenza di Io

durante ∩tj

E Energia rilasciata dal terremoto R(I| f(r), Ie ) Funzione densità di probabilità condizionata a r ed Ie

f Funzione generica r Distanza sito-sorgente sismica

g Accelerazione di gravità RD Spostamento relativo del terreno

H(∆∆∆∆Ti) Pericolosità al Sito r(∆∆∆∆Ti) Funzione di completezza

hPGA Picco di accelerazione orizzontale del suolo S Grado di sismicità

H… Intensità di Housner per ∩T=…anni sr Area superficie di rottura

I Intensità macrosismica s(∆∆∆∆tj) Probabilità costanza condizioni geodinamiche

I0 Intensità epicentrale d’interesse SH Onda S polarizzata orizzontalmente

IA Intensità di Arias SV Onda S polarizzata verticalmente

Ie Intensità epicentrale ZS Zona sismogenetica

Imax Massima intensità osservata t o ∆∆∆∆t Tempo o intervallo di tempo

IMCS Intensità MCS T Periodo medio di ritorno

IMM Intensità Mercalli Modificata u Rigetto di faglia

IMSK Intensità MSK v Media stimata componente orizzontale velocità di picco

Is Intensità al sito Vp Velocità di propagazione onde P

LQ Onda di Love VS velocità di propagazione onde S

LR Onda di Rayleigh ∆∆∆∆T Tempo di esposizione

M o ML Magnitudo (Richter) o M. Locale ∆∆∆∆Ti Intervallo di completezza

M0 Momento sismico ∆∆∆∆σσσσ Stress drop

mb Magnitudo onde di volume (P) ΓΓΓΓ Parametro effetti di sito

MS Magnitudo onde di superficie (Rayleigh) µµµµ Modulo di rigidità

MW Magnitudo momento sismico ρρρρ densità

M Magnitudo stimata dall’area di faglia υυυυ Frequenza di oscillazione

oss Parametro Intensità massima al sito osservata dell’Atlante Imax in Italia nυυυυ Frequenza naturale di oscillazione

pe(I) Densità di probabilità di I all’epicentro ΦΦΦΦ/2 Raggio faglia del mod. di Brune

Pn(I) Probabilità di eccedenza al sito di I

Page 109: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

109

Letture consigliate ed approfondimenti

� Bender B. e Perkins D.M. (1987) - Seisrisk III : A computer program for seismic hazard estimation., U.S. Geological Survey Bulletin, 1772, 48 pp.

� Bolt B.A. (1982) - I terremoti, Zanichelli � Boschi E. a cura di (1985) - I terremoti, QUADERNI LE SCIENZE n° 24. � Boschi E. a cura di (1991) - Il rischio sismico, QUADERNI LE SCIENZE n°

59 � Boschi E., Gasperini P., Guidoboni E., Smriglio G., Valensise G. (1995) -

Catalogo dei forti terremoti in Italia dal 461 a.C. al 1980, , ING-SGA � Bramerini F., Di Pasquale G., Orsini G., Pugliese A., Romeo R., Sabetta F.

(1995) – Rischio sismico del territorio italiano. Proposta di una metodologia e risultati preliminari, Rapporto tecnico SSN/RT/95/1

� Cornell C.A. (1968) - Engineering seismic risk analysis., Bull. Seism. Soc. Am., 58, pp.1583-1606

� Crespellani T., Nardi R., Simoncini C. (1988) - La liquefazione del terreno in condizioni sismiche, Zanichelli

� Karnik V. (1969) - Seismicity of the european area/I., Reidel Publ. Company, Dordrecht, 364 pp.

� Kasahara K. (1981) - Earthquake mechanics, Cambridge University press. � Lomnitz C. (1974) - Global tectonics and earthquake risk, Elsevier Scientific

Publishing Company � Medvedev S.V. (1962) - Engineering seismology, Israel Program for

Scientific Translation � Medvedev S.V. (1976) - Seismic zoning of the USSR, Israel Program for

Scientific Translation � Postpischl D. (1985) - Catalogo dei terremoti italiani dall’anno 1000 al

1980, PFG � Reiter L. (1990) - Earthquake hazard analysis. Issues and insights ,

Columbia University Press � Scandone P. (1994) - Modello sismotettonico del territorio italiano, Atti del

Convegno "Terremoti in Italia", Acc. Naz. dei Lincei, dicembre 1994, Roma. � Slejko D., Peruzza L., Rebez A., (1998) – Seismic hazard maps of Italy,

Annali di Geofisica, Vol. 41, N. 2

Siti Internet

� American Geophysical Union (AGU): http://earth.agu.org/kosmos/homepage.html � Dipartimento della Protezione Civile: http://www.protezionecivile.it � European Geophysical Society (EGS): http://www.mpae.gwdg.de/EGS/EGS.html � European Union of Geosciences (EUG): http://eost.u-strasbg.fr/EUG/ � Gruppo Nazionale Difesa terremoti: http://emidius.itim.mi.cnr.it/GNDT/

Page 110: Programma Provinciale di Previsione e Prevenzione di ...mobi.provincia.mantova.it/UploadDocs/5473_ParteI.pdf · 2.1.1 Il terremoto: concetti base Cos’è un terremoto? In che modo

110

� Gruppo nazionale per la difesa dalle catastrofi Idrogeologiche: http://www.gndci.pg.cnr.it/

� Gruppo nazionale per la Vulcanologia: http://server.dst.unipi.it/gnv/ � I.G.G. Seismic Network, Università di Genova:

http://www.dister.unige.it/geofisica � Istituto nazionale di Geofisica: http://www.ingrm.it/ � Ministero per l'Università e la Ricerca Scientifica e Tecnologica (MURST):

http://www.murst.it/ � Osservatorio Geofisico Sperimentale di Macerata: http://www.geofisico.wnt.it � Osservatorio Geofisico Sperimentale di Trieste: http://www.ogs.trieste.it � Seismological Society of America (SSA): http://www.seismosoc.org/ � Servizio Sismico Nazionale: http://www.dstn.it/ssn/ � Storia Geofisica Ambiente s.r.l.: http://www.sga-storiageo.it/sga/index.htm � Surfing the Internet for Earthquake Data by Steve Malone:

http://seismo.ethz.ch/seismosurf/seismobig.html � Università di Bologna Istituto di Fisica Settore Geofisica:

http://ibogfs.df.unibo.it/