primo piano - Dipartimento di Geoscienze

Transcript

primo piano - Dipartimento di Geoscienze
primo piano
il giornale dell’Università degli
primo piano
Studi di Padova
I terremoti:
Un’emergenza
di comunicazione
Giulio Di Toro
Stiamo forse vivendo un periodo di emergenza
terremoti?
on una media di 1000 morti/anno
in Italia dall’Unità a oggi e di 80.000
morti/anno nel mondo negli ultimi dieci
anni, i terremoti sono il più sanguinoso
fenomeno geologico su scala globale. In
realtà, questi valori medi sono il risultato
di pochi eventi catastrofici che tendono a
ripetersi a volte in sequenze temporalmente ravvicinate: per esempio il terremoto di
Messina e Reggio Calabria del 1908 e quello di Avezzano del 1915 sono stati responsabili da soli di 100.000-120.000 vittime.
In Italia, con una media di un terremoto
catastrofico ogni dieci anni dall’Unità a
oggi, abbiamo da sempre convissuto con
i terremoti. Il bilancio a scala globale dovrebbe peggiorare nel XXI secolo, non per
un incremento del numero di grandi terremoti per decade, ma per il continuo aumento della popolazione mondiale, spesso
sita in località vulnerabili da eventi sismici.
Benché l’ultimo decennio sia stato funestato da eventi distruttivi, non abbiamo dati
statisticamente significativi che mostrino
un incremento dell’attività sismica su scala
mondiale. Purtroppo, alcuni degli eventi
medio-grandi (terremoto di magnitudo
M 7.1 di Van 2011, Turchia, 604 vittime) e
giganteschi (il terremoto M 9.0 del Giappone 2011, 20.000 tra morti e dispersi) hanno
devastato aree densamente abitate e avuto
grande risalto nei mass media. Ma immagino nessuno di voi abbia sentito parlare del
terremoto M 7.1 che ha colpito la Papua
Nuova Guinea il 14 Dicembre del 2011.
Eppure di terremoti così grandi ne abbiamo almeno uno al mese sulla Terra, e uno
grande come quello dell’Aquila 2006 (M
6.3) ogni tre giorni: non è un momento di
particolare emergenza terremoti.
C
sopra il tratto iniziale dell’idrovia Padova-Venezia,
opera incompiuta progettata all’inizio degli anni
sessanta che può giocare un ruolo importante anche come canale scolmatore in caso delle piene dei
fiumi Brenta e Bacchiglione. Foto Carlo Calore
nel sottosuolo, a seguito di una crescente
urbanizzazione, sia per la decrescente manutenzione degli alvei dei torrenti. I livelli
medi delle falde del bacino Astico-Bacchiglione negli ultimi 60 anni hanno perso
oltre un metro di quota assoluta; quelle
del Brenta si sono abbassate di cinqueotto metri. Molte risorgive si sono estinte,
mentre quelle “intermittenti” conoscono
oggi periodi di siccità più lunghi rispetto
a 20-30 anni fa. Nell’ottobre 2003 è stato
misurato il minimo storico raggiunto dalla
falda negli ultimi 60 anni!
I
livelli eccezionalmente elevati raggiunti
dalle falde idriche tra la fine del 2010
e l’inizio del 2011 non devono trarre in
inganno e far pensare ad un’inversione
di tendenza dello stato di sofferenza degli
acquiferi. La fase idrologica di fine 2010 è
stata del tutto eccezionale, legata ad eventi piovosi particolarmente intensi che si
sono ripetuti più volte nell’arco di due-tre
mesi. Questo fenomeno, al quale gli esperti attribuiscono un “tempo di ritorno” di
50 anni, ha semmai confermato la fragilità
idrogeologica del Veneto e, in ogni caso,
non ha ridotto in modo rilevante la tendenza all’abbassamento delle falde. I
l governo della risorsa idrica non può
prescindere da una diversa e più accorta gestione del territorio. Per arrestare il
continuo abbassamento delle falde, fenomeno che deve essere contrastato al più
presto, oltre all’indispensabile e prioritaria eliminazione degli sprechi non più
accettabili (quale l’utilizzo di decine di
migliaia di pozzi a getto continuo lasciati
aperti con acqua a perdere!), devono essere rilanciate e premiate iniziative di risparmio come, ad esempio, l’incentivazione
del riciclo di acqua nei processi produttivi,
ancora troppo limitato. Devono essere riviste le politiche agrarie, orientando questo
settore primario verso pratiche agronomiche meno idro-esigenti, introducendo tecniche irrigue più efficienti ed utilizzando,
nei mesi invernali, le migliaia di chilometri di rogge irrigue esistenti in Veneto per
disperdere acqua nel sottosuolo.
D
a ultimo, si deve passare da una fase
sperimentale, già ampiamente testata, alla realizzazione vera e propria di
impianti di ricarica forzata dei corpi idrici
sotterranei. Si tratta di interventi di grande rilievo, oltre che costosi, indispensabili
per rimediare agli errori commessi in passato nella gestione del territorio e nell’utilizzo della risorsa idrica. A causa dell’urbanizzazione soprattutto nelle zone d’alta
pianura, si è infatti persa una rilevante
percentuale di terreni permeabili, in grado di permettere l’infiltrazione diretta nel
sottosuolo delle acque meteoriche e tale
perdita va compensata con impianti di ricarica forzata.
L’
urbanizzazione spesso dissennata
degli ultimi decenni ha inoltre sottratto ampie superfici dove in passato i
corsi d’acqua potevano sfogare la loro irruenza. I recenti eventi alluvionali hanno
reso ancor più evidente questo aspetto
della fragilità idrogeologica del territorio
Veneto. La mitigazione del rischio idraulico trova oggi, come unica soluzione, la
realizzazione di bacini d’espansione dove
restituire a torrenti e fiumi lo spazio per
esondazioni “controllate”.
Q
ualsiasi iniziativa deve essere comunque accompagnata da una crescita
culturale che renda pienamente consapevoli che l’acqua, vera ricchezza del territorio Veneto, non è a nostro uso esclusivo; è
una risorsa rinnovabile, ma non illimitata.
Per assicurare la sostenibilità dell’attuale e
futuro utilizzo è indispensabile ripristinare l’equilibrio del bilancio idrico.
N
on è un caso che le iniziative a tutela dell’acqua siano state sottoscritte
anche dall’UNESCO (United Nation Educational Scientific and Cultural Organization):
preservare l’acqua è un obiettivo prima di
tutto culturale, indipendentemente dalla
regione del mondo di cui si è cittadini.
Ma cosa sappiamo sui terremoti?
terremoti mortali per l’uomo “enucleano” tra i 6 km e i 30 km di profondità.
I
Trattandosi di un fenomeno che avviene a
diversi chilometri di profondità, la sismologia, che studia i terremoti mediante l’interpretazione delle onde sismiche, la fa da
padrona. La sismologia quantitativa è una
disciplina modernissima: nasce con l’installazione dei primi sismometri nella seconda
metà dell’800. Grazie soprattutto al contributo di studiosi Giapponesi e Statunitensi,
furono localizzati (ipocentri) e quantificata
l’energia sismica (M = magnitudo) irradiata dai terremoti. In questo modo, le antiche
“leggi” di sopravvivenza dei nostri antenati
Calabresi e Abruzzesi (se la terra trema, stai
fuori di casa almeno tre giorni) trovarono
un riscontro quantitativo:
1) i terremoti sono ravvicinati nello spazio
e nel tempo (clusterizzazione),
2) un evento grande è seguito da numerosi
eventi minori (repliche) che decadono rapidamente nel tempo (la legge di Omori),
3) per un dato evento di magnitudo X, esistono circa 10 eventi di magnitudo X-1 (le
legge di Gutenberg-Richter),
4) il numero di repliche aumenta esponenzialmente con la magnitudo dell’evento principale (la legge di Utsu),
5) in alcuni casi, eventi grandi sono preceduti da eventi minori.
Queste osservazioni sperimentali suggeriscono che i terremoti “parlano” tra di loro,
anche se il linguaggio è ancora da scoprire. Infatti, la sismologia studia un terremoto come il nostro udito studia il motore di
un’auto: ascoltando il rombo del motore,
siamo in grado di stabilire approssimativamente la cilindrata del motore (la magnitudo) e di localizzare l’auto (l’ipocentro),
ma non possiamo “vedere”come funziona
il motore (la faglia). Benché siano stati
compiuti sforzi significativi negli ultimi
40 anni (esperimenti di laboratorio che
riproducono le condizioni che portano
alla enucleazione e alla propagazione di
rotture sismiche, studi di terreno di faglie
oggi esposte in superficie ma un tempo
1908 Messina
1976 Friuli
1980 Irpinia
2009 L’Aquila
9
il giornale dell’Università degli
primo piano
Studi di Padova
in basso a destra le fiamme si levano sopra il
quartiere di Mission District a San Francisco dopo
il terremoto. Foto di H. D. Chadwick (US Gov War
Department)
in basso a sinistra il sismologo Henry Fielding Reid nel 1933 presso il parco nazionale di Glacier Bay in Alaska
(U.S. Geological Survey Photographic Library)
sotto immagine aerea delle rovine della città di San Fransisco dopo il terremoto del 1906. Foto di George R.
Lawrence (Library of Congress, USA)
attive a km di profondità che consentono di quantificare la struttura del motore
dei terremoti), le conoscenze sulla fisica
dei terremoti sono ancora limitate. Il modello dominante di enucleazione di un
terremoto rimane quello del rimbalzo
elastico proposto da Harry Reid dopo il
terremoto di San Francisco del 1906. Nella versione moderna del modello, il moto
relativo delle placche terrestri carica progressivamente le rocce della crosta come
delle gigantesche molle. Quando le rocce
non sono più in grado di sostenere queste spinte, esse si rompono lungo delle superfici chiamate faglie e l’energia elastica
caricata dalle rocce nell’arco di centinaia
di anni viene rilasciata in pochi secondi
attraverso l’emissione di onde elastiche: il
terremoto. Le onde sono emesse sia durante la propagazione della rottura, che
avviene a chilometri al secondo, che durante lo sfregamento delle masse roccia,
che avviene a velocità di qualche metro al
secondo. Come ordine di grandezza, la faglia responsabile del terremoto dell’Aquila del 6 Aprile 2009 (M 6.3), è lunga circa
20-25 km e ha un’area di circa 240 km2;
la faglia del terremoto di Sumatra del 26
Dicembre 2004 (M 9.4), è lunga circa 800
km e copre un’area di quasi 200.000 km2.
Poiché passando da un grado a quello
successivo nelle scale di magnitudo l’energia liberata in onde sismiche aumenta di
circa 30 volte, il terremoto di Sumatra è
stato 27.000 volte più energetico di quello
dell’Aquila. Rimangono però molte domande che il modello del rimbalzo elastico non soddisfa: perché, per esempio, se
gli esperimenti di laboratorio mostrano
che il meccanismo di enucleazione di un
terremoto è circa lo stesso, alcune rotture
si propagano per poche decine o centinaia di metri (M 1) mentre altre diventano
dei grandi terremoti distruttivi (M 9)?
Occorre rispondere a questo genere di
domande per prevedere un terremoto catastrofico.
Cosa vuol dire “prevedere” un terremoto?
ntanto, occorre distinguere tra previsione deterministica del luogo (coordinate geografiche), data (ora, giorno,
anno) e dimensione (magnitudo) del
terremoto dalla previsione probabilistica
(con probabilità compresa tra 0 e 1, dove
0 è un evento impossibile e 1 un evento
certo), o quante probabilità vi sono che
I
un evento di una certa magnitudo colpirà una data area in un dato giorno. La
differenza tra previsione deterministica e
probabilistica distingue un ciarlatano da
uno scienziato. Tutte le previsioni scientifiche sono di tipo probabilistico. Nel caso
delle previsioni meteo a 24 ore l’attendibilità (“piove-non piove”) sfiora 0.9. Ma il
“tempo” è un fenomeno i cui parametri
principali (umidità, temperatura, ecc.)
sono monitorati in tempo reale e su scala globale e quindi inseriti in una “scatola
nera” (modelli matematici che simulano
il comportamento dell’atmosfera tenendo conto delle leggi dei fluidi, ecc.) che
produce una previsione. La previsione
può essere verificata il giorno successivo:
se non è corretta, si può agire sulla scatola nera. I terremoti distruttivi per l’uomo
nascono a una decina di kilometri di profondità, dove non è consentito misurare
i parametri fisici (temperatura, energia
di deformazione elastica accumulata e
proprietà frizionali delle rocce, ecc.) che
controllano l’enucleazione di un terremoto; inoltre, i terremoti grandi rompono
faglie di centinaia di km2 ma “nascono”
da aree di faglia poco più grandi della
vostra scrivania. Che dati inserire nella
scatola nera che produce le previsioni di
un terremoto? E, anche se avessimo una
scatola nera, i terremoti distruttivi come
quello dell’Aquila 2006 si ripetono ogni
250-500 anni. Come verificare la bontà
della previsione?
Benché le conoscenze sulla fisica dei terremoti stiano notevolmente incrementando, non abbiamo a oggi un metodo
robusto per prevedere i terremoti; non
esistono segnali precursori (emissioni di
Radon, sciami sismici, deformazioni del
suolo, ecc.) affidabili. Per questa ragione,
per l’Italia si è optato per una carta della
pericolosità sismica che si basa prevalentemente sulla storia degli eventi passati: la
carta indica l’accelerazione massima che
nel 90% dei casi non verrà superata in un
periodo prefissato di 50 anni, in condizioni ottimali di risposta locale del terreno
(roccia); la carta più recente è stata pubblicata nel 2004.
La carta è costruita impiegando il catalogo
dei terremoti storici Italiani, il catalogo dei
terremoti strumentali, un modello di zonazione sismotettonica che rappresenta la frequenza/magnitudo degli eventi, e le proprietà di trasmissione delle onde nelle rocce. Il catalogo dei terremoti storici Italiano,
il più completo al mondo, sfrutta la lunga
tradizione scritta del nostro paese ed è uno
straordinario esempio delle potenzialità di
simbiosi tra discipline umanistiche e scientifiche: è il risultato di un certosino studio di
antichi documenti conservati in monasteri,
chiese, biblioteche, ecc. dove erano registrati eventi interpretabili come causati da
terremoti. Secondo la carta di pericolosità
sismica del territorio nazionale, L’Aquila si
trova nelle zone a più alta pericolosità d’Italia. Poiché i tempi di ritorno di un evento
distruttivo per l’Aquila sono di ca. 250-500
anni (l’ultimo evento distruttivo era stato
nel 1703) la probabilità di avere un evento
distruttivo in un dato giorno, per esempio
il 6 Aprile 2006, era di ca. 0.00001 = 1 /
(365 giorni x 300 anni). In altre parole, la
carta non prevedeva “deterministicamente” quando, ma luogo e magnitudo sì. La
carta è di riferimento per la classificazione
sismica di un comune e, di conseguenza,
per legge, impone vincoli sulle caratteristiche costruttive degli edifici la cui rigorosa applicazione ridurrebbe al minimo
le perdite di vite umane. In realtà, per le
scarse conoscenze che abbiamo della fisica dei terremoti, per le possibili lacune
nei cataloghi storici e per i lunghi tempi
di ritorno dei terremoti, la carta non è
necessariamente “robusta”. In altre parole, non dovrebbe stupire che in futuro in
alcune aree potremmo misurare accelerazioni al suolo anche molto più elevate da
quanto previsto dalla carta. Inoltre, questo
tipo di carte non considera aspetti geologici locali di amplificazione delle onde e
alcuni aspetti caratteristici dei terremoti,
come la loro tendenza a “clusterizzare” in
brevi periodi. Quest’ultima proprietà aumenta di molto la probabilità di un evento
sismico. Uno studio del 2011 (successivo
al terremoto dell’Aquila) dei terremoti
registrati in Italia negli ultimi sessant’anni
indica che un terremoto di M > 4 ha circa l’1% di probabilità di essere seguito da
un terremoto di magnitudo più grande in
un raggio di 10 km dall’epicentro nelle 72
ore successive. Nel caso del terremoto M
6.3 dell’Aquila del 6 Aprile 2006 delle ore
3:32, essendo stato preceduto alle 22:48
del 5 Aprile da un evento M 4, esisteva una
probabilità pari all’1% di avere un terremoto come quello che ha colpito la città
poche ore dopo.
I terremoti: un problema di comunicazione
n incremento di probabilità da
0.00001 a 0.01 è un aumento significativo (tre ordini di grandezza) da un
punto di vista “scientifico”, ma numeri
così piccoli evidenziano la difficoltà di comunicare la pericolosità di un evento alla
popolazione e ai decision makers. Che cosa
significa che la probabilità di un evento
aumenta da 0.00001 a 0.01? Può il sindaco
ordinare l’evacuazione di una città perché
vi è una probabilità su cento che nei prossimi tre giorni vi sarà un terremoto? E se
il terremoto, come probabile al 99%, non
arriva, quanto dovrà durare l’evacuazione?
Chi coprirà i costi delle giornate lavorative
perse? Occorre confrontare i costi economici e sociali dell’evacuazione di una città
con quello delle eventuali perdite in caso
di mancata evacuazione. Questo comporta
U
11
primo piano
il giornale dell’Università degli
primo piano
Studi di Padova
carta di pericolosità sismica
del territorio nazionale
espressa in termini di accelerazione massima del suolo con
probabilità di eccedenza del 10% in 50 anni riferita a suoli
rigidi (Vs > 800 m/s).
anche una valutazione del numero di potenziali vittime e del costo di una vita umana. Anche se “non ha prezzo”, le società
di assicurazione attribuiscono un prezzo
alle nostre vite. Se moltiplichiamo i costi
delle potenziali “perdite” per la probabilità di un evento e li confrontiamo con i
costi di evacuazione, è possibile prendere
una decisione? è evidente che occorrono
delle rigorose normative (preparate lontano dall’emergenza), fondate su un’analisi
razionale costi/benefici, cui affidarsi per
prendere decisioni che si basano su probabilità estremamente basse di realizzazione di un evento. Nei giorni del terremoto
dell’Aquila, in Versilia gli alberghieri stavano procedendo con un’azione legale
nei confronti dei metereologi che, avendo
stilato bollettini meteo che prevedevano
pioggia quando il weekend era stato soleggiato, avevano indotto numerosi turisti a
cancellare le prenotazioni negli alberghi.
Il terremoto dell’Aquila del 6 Aprile è stato preceduto da una sequenza sismica di
circa sei mesi, tra cui l’evento M4.1 del 30
Marzo 2006 cui fece seguito la Riunione
della Commissione Grandi Rischi del 31
Marzo 2006. La riunione fu tenuta nella
città dell’Aquila in un clima di tensione, sia
per una popolazione sottoposta alla snervante crisi sismica, che per le voci di previsione (deterministica) di un grande terremoto ad opera di Giampaolo Giuliani.
Le previsioni di Giuliani basate su misure
di emissione di Radon, non hanno trovato
alcun riscontro, sia pratico (le sue previsioni si sono mostrate errate sia nel tempo
che nel luogo) che scientifico: nessuno
dei dati raccolti da Giuliani è stato pubblicato su una rivista scientifica e i suoi dati,
analizzati da una commissione di esperti
internazionali, si sono mostrati non utilizzabili per prevedere un terremoto. Questo
non dovrebbe sorprendere: studi rigorosi
condotti negli ultimi quarant’anni hanno mostrato la non affidabilità del Radon
come precursore. In quei giorni Giuliani
fu denunciato per procurato allarme dalla Protezione Civile e probabilmente uno
degli scopi della riunione, indetta dalla
Protezione Civile, era smentire le dichiarazioni di Giuliani. Alla riunione parteciparono sei scienziati: tre sismologi, Enzo
Boschi e Giulio Selvaggi (dell’Istituto Nazionale di Geofisica e Vulcanologia, l’ente preposto al monitoraggio dell’attività
sismica sul territorio nazionale), Claudio
Eva (dell’Univ. di Genova), il vulcanologo
Franco Barberi (dell’Univ. di Roma Tre) e
gli ingegneri Gian Michele Calvi (dell’Eu-
ropean Centre di Ingegneria Sismica di
Pavia), Mauro Dolce e Bernardo De Bernardinis (della Protezione Civile). La riunione durò meno di un’ora e il verbale,
aspetto da chiarire, fu firmato la mattina
del 6 Aprile, quindi a terremoto avvenuto.
Il 31 Marzo, prima della riunione, il vicedirettore della Protezione Civile, l’Ing. De
Bernardinis, affermò in un’intervista televisiva che l’Aquila non correva pericolo alcuno perché i numerosi piccoli terremoti
stavano scaricando l’energia elastica accumulata nei secoli passati: i cittadini potevano stare tranquilli e bere un bicchiere
di Montepulciano d’Abruzzo. La prima
regola di comunicazione (e buon senso)
è che non è possibile smentire voci scientificamente infondate (le previsioni deterministiche di Giuliani) con affermazioni
altrettanto scientificamente infondate (le
dichiarazioni di De Bernardinis sono inconsistenti con cento anni di studi di sismologia quantitativa i cui risultati sono il
fondamento della previsione probabilistica di un terremoto). Queste affermazioni
inesatte non furono contestate da specialisti (forse anche perché non ne erano a
conoscenza) nei giorni che precedettero
l’evento del 6 Aprile 2006 e, a detta dei
parenti delle vittime del terremoto, hanno
influenzato le loro decisioni: non abbandonare l’abitazione dopo l’evento M 4.0
delle 22:48 del 5 Aprile.
A seguito del terremoto distruttivo del 6
Aprile 2006, i sei scienziati e tecnici che
parteciparono alla riunione sono sotto
processo facendo gridare la comunità
scientifica ad un nuovo caso Galileo: l’accusa è di omicidio colposo e rischiano fino
a 15 anni di carcere. L’accusa, come affermato dal PM Fabio Picuti, non è di non
aver previsto il terremoto, come inizialmente interpretato dalla comunità scientifica, ma di aver fornito alla popolazione
informazioni lacunose e contraddittorie
sulla crisi sismica e di non aver comunicato in maniera esaustiva alla popolazione
come comportarsi durante la crisi. Benché la posizione di alcuni degli scienziati
coinvolti sia diversa (vedi il caso di Giulio
Selvaggi che non faceva parte della commissione grandi rischi e fu convocato per
riassumere lo stato della crisi sismica) o
il fatto che, secondo la Legge, è il Dipartimento della Protezione Civile che sulla
base del parere degli esperti, prende delle
decisioni sul tipo di azioni da portare alla
popolazione, la situazione è complessa. A
difesa dei sismologi possiamo affermare
che il terremoto era stato previsto pro-
< 0.025 g
0.025 - 0.050
0.050 - 0.075
0.075 - 0.100
0.150 - 0.175
0.175 - 0.200
0.200 - 0.225
0.225 - 0.250
0.100 - 0.125
0.250 - 0.275
0.125 - 0.150
0.275 - 0.300
babilisticamente (quindi non nel giorno,
Fig. 1), che se le case dell’Aquila fossero
state sufficientemente robuste da resistere
alle sollecitazioni previste in Fig. 1 forse
non ci sarebbero state vittime e che, in
ogni caso, è la Protezione Civile l’ente preposto all’azione nei confronti della popolazione. Se il processo dovrà fare chiarezza
su molti aspetti (per esempio, i rapporti
tra Istituto Nazionale di Geofisica e Protezione Civile, il verbale della riunione della
Commissione Grandi Rischi del 31 Marzo
2006 firmato dopo il terremoto del 6 Aprile, ecc.) come dichiarato dal sismologo
Tom Jordan, direttore del Southern California Earthquake Center preposto al monitoraggio della Faglia di San Andreas, il processo segna uno spartiacque: il processo
costringerà i sismologi di tutto il mondo
a rivedere il modo con cui comunicare la
probabilità di eventi disastrosi con bassissime percentuali di accadimento e come
rapportarsi con i mass media.
La comunità scientifica deve avere la massima trasparenza e comunicare nella maniera più chiara possibile messaggi non
contraddittori. Nei giorni precedenti e
successivi al terremoto dell’Aquila, ricercatori e professionisti a volte con scarsa
competenza in fatto di terremoti e impreparati a gestire le domande di un giornalista creavano ulteriore confusione. Abbiamo assistito alla Caporetto della Comunicazione Scientifica con una grave perdita
di fiducia da parte del cittadino nei confronti della Scienza. Per affrontare situazioni di questo tipo che inevitabilmente
si ripeteranno (vedi il caso del Vesuvio)
è indispensabile una regia e un soggetto
di riferimento attualmente assenti nella
comunità scientifica Italiana (e forse globale). Ma è altrettanto vero che il problema di comunicazione è biunivoco. Diversi
giornali (La Repubblica) e uomini politici
(Antonio Di Pietro) nei giorni successivi
al terremoto proclamavano Giampaolo
Giuliani l’eroe inascoltato che aveva previsto il terremoto. È necessario che gli interlocutori (politici, giornalisti, e, di seguito,
la popolazione) sappiano selezionare le
fonti, conoscano i rudimenti del metodo
scientifico, e, in futuro, decision-makers e
cittadini siano in grado di prendere decisioni sulla base di previsioni con bassissima probabilità di accadimento. L’alluvione di qualche mese fa di Genova insegna
che in Italia (e non solo, basti pensare alla
gestione dell’uragano Katrina che infierì
lungo la costa meridionale degli USA nel
2005), anche nel caso di previsioni a ele-
vata probabilità di accadimento, i decision
makers sono impreparati nel gestire queste
informazioni.
Fortunatamente i terremoti hanno tempi di ritorno lunghi nel nostro paese, da
250 a 1000 e più anni, ma questo si ritorce
contro perché dimentichiamo in fretta. È compito dei mass media, debitamente informati (la carta al centro della pagina è
accessibile a tutti: http://zonesismiche.
mi.ingv.it/mappa_ps_apr04/italia.html)
ricordare che il nostro è un paese sismico.
L’INGV e molte scuole pubbliche organizzano regolarmente corsi su come occorra
agire prima (per esempio, fissare i mobili
alle pareti) e durante un terremoto (rifugiarsi sotto le travi portanti o un tavolo),
semplici regole di comportamento che
possono salvare vite umane.
Nei giorni antecedenti al terremoto
dell’Aquila, il governo Berlusconi proponeva il piano di ampliamento del 25% delle abitazioni come stimolo alla stagnante
economia. Non ci fu un solo parlamentare della maggioranza che avesse ricordato che sarebbe stato più saggio spendere
quei soldi per rinforzare le nostre abitazioni. Esiste un’emergenza di comunicazione che è il lontano riflesso di una più
accecante emergenza culturale.
Bibliografia essenziale
Hall, S.S. 2011. At Fault? Nature 477, 264-269.
Hough, S., 2010. Predicting the unpredictable. Princeton University Press, Princeton, USA.
Jordan, T.H., Chen, Y-T., Gasparini, P., Madariaga, R.,
Main, I., Marzocchi, W., Papadopoulos, G., Sobolev,
G., Yamaoka, K., Zschau, J., 2011. Operational earthquake forecasting. Annals of Geophysics 54, 315-391.
in alto al centro la carta di pericolosità sismica del
nostro paese (Istituto Nazionale di Geofisica e Vulcanologia, elaborazione aprile 2004)
in basso al centro l’Aquila dopo il terremoto di magnitudo 6.3 del 2009 che ha colpito la città. Foto di
Massimo Pistore
13