primo piano - Dipartimento di Geoscienze
Transcript
primo piano - Dipartimento di Geoscienze
primo piano il giornale dell’Università degli primo piano Studi di Padova I terremoti: Un’emergenza di comunicazione Giulio Di Toro Stiamo forse vivendo un periodo di emergenza terremoti? on una media di 1000 morti/anno in Italia dall’Unità a oggi e di 80.000 morti/anno nel mondo negli ultimi dieci anni, i terremoti sono il più sanguinoso fenomeno geologico su scala globale. In realtà, questi valori medi sono il risultato di pochi eventi catastrofici che tendono a ripetersi a volte in sequenze temporalmente ravvicinate: per esempio il terremoto di Messina e Reggio Calabria del 1908 e quello di Avezzano del 1915 sono stati responsabili da soli di 100.000-120.000 vittime. In Italia, con una media di un terremoto catastrofico ogni dieci anni dall’Unità a oggi, abbiamo da sempre convissuto con i terremoti. Il bilancio a scala globale dovrebbe peggiorare nel XXI secolo, non per un incremento del numero di grandi terremoti per decade, ma per il continuo aumento della popolazione mondiale, spesso sita in località vulnerabili da eventi sismici. Benché l’ultimo decennio sia stato funestato da eventi distruttivi, non abbiamo dati statisticamente significativi che mostrino un incremento dell’attività sismica su scala mondiale. Purtroppo, alcuni degli eventi medio-grandi (terremoto di magnitudo M 7.1 di Van 2011, Turchia, 604 vittime) e giganteschi (il terremoto M 9.0 del Giappone 2011, 20.000 tra morti e dispersi) hanno devastato aree densamente abitate e avuto grande risalto nei mass media. Ma immagino nessuno di voi abbia sentito parlare del terremoto M 7.1 che ha colpito la Papua Nuova Guinea il 14 Dicembre del 2011. Eppure di terremoti così grandi ne abbiamo almeno uno al mese sulla Terra, e uno grande come quello dell’Aquila 2006 (M 6.3) ogni tre giorni: non è un momento di particolare emergenza terremoti. C sopra il tratto iniziale dell’idrovia Padova-Venezia, opera incompiuta progettata all’inizio degli anni sessanta che può giocare un ruolo importante anche come canale scolmatore in caso delle piene dei fiumi Brenta e Bacchiglione. Foto Carlo Calore nel sottosuolo, a seguito di una crescente urbanizzazione, sia per la decrescente manutenzione degli alvei dei torrenti. I livelli medi delle falde del bacino Astico-Bacchiglione negli ultimi 60 anni hanno perso oltre un metro di quota assoluta; quelle del Brenta si sono abbassate di cinqueotto metri. Molte risorgive si sono estinte, mentre quelle “intermittenti” conoscono oggi periodi di siccità più lunghi rispetto a 20-30 anni fa. Nell’ottobre 2003 è stato misurato il minimo storico raggiunto dalla falda negli ultimi 60 anni! I livelli eccezionalmente elevati raggiunti dalle falde idriche tra la fine del 2010 e l’inizio del 2011 non devono trarre in inganno e far pensare ad un’inversione di tendenza dello stato di sofferenza degli acquiferi. La fase idrologica di fine 2010 è stata del tutto eccezionale, legata ad eventi piovosi particolarmente intensi che si sono ripetuti più volte nell’arco di due-tre mesi. Questo fenomeno, al quale gli esperti attribuiscono un “tempo di ritorno” di 50 anni, ha semmai confermato la fragilità idrogeologica del Veneto e, in ogni caso, non ha ridotto in modo rilevante la tendenza all’abbassamento delle falde. I l governo della risorsa idrica non può prescindere da una diversa e più accorta gestione del territorio. Per arrestare il continuo abbassamento delle falde, fenomeno che deve essere contrastato al più presto, oltre all’indispensabile e prioritaria eliminazione degli sprechi non più accettabili (quale l’utilizzo di decine di migliaia di pozzi a getto continuo lasciati aperti con acqua a perdere!), devono essere rilanciate e premiate iniziative di risparmio come, ad esempio, l’incentivazione del riciclo di acqua nei processi produttivi, ancora troppo limitato. Devono essere riviste le politiche agrarie, orientando questo settore primario verso pratiche agronomiche meno idro-esigenti, introducendo tecniche irrigue più efficienti ed utilizzando, nei mesi invernali, le migliaia di chilometri di rogge irrigue esistenti in Veneto per disperdere acqua nel sottosuolo. D a ultimo, si deve passare da una fase sperimentale, già ampiamente testata, alla realizzazione vera e propria di impianti di ricarica forzata dei corpi idrici sotterranei. Si tratta di interventi di grande rilievo, oltre che costosi, indispensabili per rimediare agli errori commessi in passato nella gestione del territorio e nell’utilizzo della risorsa idrica. A causa dell’urbanizzazione soprattutto nelle zone d’alta pianura, si è infatti persa una rilevante percentuale di terreni permeabili, in grado di permettere l’infiltrazione diretta nel sottosuolo delle acque meteoriche e tale perdita va compensata con impianti di ricarica forzata. L’ urbanizzazione spesso dissennata degli ultimi decenni ha inoltre sottratto ampie superfici dove in passato i corsi d’acqua potevano sfogare la loro irruenza. I recenti eventi alluvionali hanno reso ancor più evidente questo aspetto della fragilità idrogeologica del territorio Veneto. La mitigazione del rischio idraulico trova oggi, come unica soluzione, la realizzazione di bacini d’espansione dove restituire a torrenti e fiumi lo spazio per esondazioni “controllate”. Q ualsiasi iniziativa deve essere comunque accompagnata da una crescita culturale che renda pienamente consapevoli che l’acqua, vera ricchezza del territorio Veneto, non è a nostro uso esclusivo; è una risorsa rinnovabile, ma non illimitata. Per assicurare la sostenibilità dell’attuale e futuro utilizzo è indispensabile ripristinare l’equilibrio del bilancio idrico. N on è un caso che le iniziative a tutela dell’acqua siano state sottoscritte anche dall’UNESCO (United Nation Educational Scientific and Cultural Organization): preservare l’acqua è un obiettivo prima di tutto culturale, indipendentemente dalla regione del mondo di cui si è cittadini. Ma cosa sappiamo sui terremoti? terremoti mortali per l’uomo “enucleano” tra i 6 km e i 30 km di profondità. I Trattandosi di un fenomeno che avviene a diversi chilometri di profondità, la sismologia, che studia i terremoti mediante l’interpretazione delle onde sismiche, la fa da padrona. La sismologia quantitativa è una disciplina modernissima: nasce con l’installazione dei primi sismometri nella seconda metà dell’800. Grazie soprattutto al contributo di studiosi Giapponesi e Statunitensi, furono localizzati (ipocentri) e quantificata l’energia sismica (M = magnitudo) irradiata dai terremoti. In questo modo, le antiche “leggi” di sopravvivenza dei nostri antenati Calabresi e Abruzzesi (se la terra trema, stai fuori di casa almeno tre giorni) trovarono un riscontro quantitativo: 1) i terremoti sono ravvicinati nello spazio e nel tempo (clusterizzazione), 2) un evento grande è seguito da numerosi eventi minori (repliche) che decadono rapidamente nel tempo (la legge di Omori), 3) per un dato evento di magnitudo X, esistono circa 10 eventi di magnitudo X-1 (le legge di Gutenberg-Richter), 4) il numero di repliche aumenta esponenzialmente con la magnitudo dell’evento principale (la legge di Utsu), 5) in alcuni casi, eventi grandi sono preceduti da eventi minori. Queste osservazioni sperimentali suggeriscono che i terremoti “parlano” tra di loro, anche se il linguaggio è ancora da scoprire. Infatti, la sismologia studia un terremoto come il nostro udito studia il motore di un’auto: ascoltando il rombo del motore, siamo in grado di stabilire approssimativamente la cilindrata del motore (la magnitudo) e di localizzare l’auto (l’ipocentro), ma non possiamo “vedere”come funziona il motore (la faglia). Benché siano stati compiuti sforzi significativi negli ultimi 40 anni (esperimenti di laboratorio che riproducono le condizioni che portano alla enucleazione e alla propagazione di rotture sismiche, studi di terreno di faglie oggi esposte in superficie ma un tempo 1908 Messina 1976 Friuli 1980 Irpinia 2009 L’Aquila 9 il giornale dell’Università degli primo piano Studi di Padova in basso a destra le fiamme si levano sopra il quartiere di Mission District a San Francisco dopo il terremoto. Foto di H. D. Chadwick (US Gov War Department) in basso a sinistra il sismologo Henry Fielding Reid nel 1933 presso il parco nazionale di Glacier Bay in Alaska (U.S. Geological Survey Photographic Library) sotto immagine aerea delle rovine della città di San Fransisco dopo il terremoto del 1906. Foto di George R. Lawrence (Library of Congress, USA) attive a km di profondità che consentono di quantificare la struttura del motore dei terremoti), le conoscenze sulla fisica dei terremoti sono ancora limitate. Il modello dominante di enucleazione di un terremoto rimane quello del rimbalzo elastico proposto da Harry Reid dopo il terremoto di San Francisco del 1906. Nella versione moderna del modello, il moto relativo delle placche terrestri carica progressivamente le rocce della crosta come delle gigantesche molle. Quando le rocce non sono più in grado di sostenere queste spinte, esse si rompono lungo delle superfici chiamate faglie e l’energia elastica caricata dalle rocce nell’arco di centinaia di anni viene rilasciata in pochi secondi attraverso l’emissione di onde elastiche: il terremoto. Le onde sono emesse sia durante la propagazione della rottura, che avviene a chilometri al secondo, che durante lo sfregamento delle masse roccia, che avviene a velocità di qualche metro al secondo. Come ordine di grandezza, la faglia responsabile del terremoto dell’Aquila del 6 Aprile 2009 (M 6.3), è lunga circa 20-25 km e ha un’area di circa 240 km2; la faglia del terremoto di Sumatra del 26 Dicembre 2004 (M 9.4), è lunga circa 800 km e copre un’area di quasi 200.000 km2. Poiché passando da un grado a quello successivo nelle scale di magnitudo l’energia liberata in onde sismiche aumenta di circa 30 volte, il terremoto di Sumatra è stato 27.000 volte più energetico di quello dell’Aquila. Rimangono però molte domande che il modello del rimbalzo elastico non soddisfa: perché, per esempio, se gli esperimenti di laboratorio mostrano che il meccanismo di enucleazione di un terremoto è circa lo stesso, alcune rotture si propagano per poche decine o centinaia di metri (M 1) mentre altre diventano dei grandi terremoti distruttivi (M 9)? Occorre rispondere a questo genere di domande per prevedere un terremoto catastrofico. Cosa vuol dire “prevedere” un terremoto? ntanto, occorre distinguere tra previsione deterministica del luogo (coordinate geografiche), data (ora, giorno, anno) e dimensione (magnitudo) del terremoto dalla previsione probabilistica (con probabilità compresa tra 0 e 1, dove 0 è un evento impossibile e 1 un evento certo), o quante probabilità vi sono che I un evento di una certa magnitudo colpirà una data area in un dato giorno. La differenza tra previsione deterministica e probabilistica distingue un ciarlatano da uno scienziato. Tutte le previsioni scientifiche sono di tipo probabilistico. Nel caso delle previsioni meteo a 24 ore l’attendibilità (“piove-non piove”) sfiora 0.9. Ma il “tempo” è un fenomeno i cui parametri principali (umidità, temperatura, ecc.) sono monitorati in tempo reale e su scala globale e quindi inseriti in una “scatola nera” (modelli matematici che simulano il comportamento dell’atmosfera tenendo conto delle leggi dei fluidi, ecc.) che produce una previsione. La previsione può essere verificata il giorno successivo: se non è corretta, si può agire sulla scatola nera. I terremoti distruttivi per l’uomo nascono a una decina di kilometri di profondità, dove non è consentito misurare i parametri fisici (temperatura, energia di deformazione elastica accumulata e proprietà frizionali delle rocce, ecc.) che controllano l’enucleazione di un terremoto; inoltre, i terremoti grandi rompono faglie di centinaia di km2 ma “nascono” da aree di faglia poco più grandi della vostra scrivania. Che dati inserire nella scatola nera che produce le previsioni di un terremoto? E, anche se avessimo una scatola nera, i terremoti distruttivi come quello dell’Aquila 2006 si ripetono ogni 250-500 anni. Come verificare la bontà della previsione? Benché le conoscenze sulla fisica dei terremoti stiano notevolmente incrementando, non abbiamo a oggi un metodo robusto per prevedere i terremoti; non esistono segnali precursori (emissioni di Radon, sciami sismici, deformazioni del suolo, ecc.) affidabili. Per questa ragione, per l’Italia si è optato per una carta della pericolosità sismica che si basa prevalentemente sulla storia degli eventi passati: la carta indica l’accelerazione massima che nel 90% dei casi non verrà superata in un periodo prefissato di 50 anni, in condizioni ottimali di risposta locale del terreno (roccia); la carta più recente è stata pubblicata nel 2004. La carta è costruita impiegando il catalogo dei terremoti storici Italiani, il catalogo dei terremoti strumentali, un modello di zonazione sismotettonica che rappresenta la frequenza/magnitudo degli eventi, e le proprietà di trasmissione delle onde nelle rocce. Il catalogo dei terremoti storici Italiano, il più completo al mondo, sfrutta la lunga tradizione scritta del nostro paese ed è uno straordinario esempio delle potenzialità di simbiosi tra discipline umanistiche e scientifiche: è il risultato di un certosino studio di antichi documenti conservati in monasteri, chiese, biblioteche, ecc. dove erano registrati eventi interpretabili come causati da terremoti. Secondo la carta di pericolosità sismica del territorio nazionale, L’Aquila si trova nelle zone a più alta pericolosità d’Italia. Poiché i tempi di ritorno di un evento distruttivo per l’Aquila sono di ca. 250-500 anni (l’ultimo evento distruttivo era stato nel 1703) la probabilità di avere un evento distruttivo in un dato giorno, per esempio il 6 Aprile 2006, era di ca. 0.00001 = 1 / (365 giorni x 300 anni). In altre parole, la carta non prevedeva “deterministicamente” quando, ma luogo e magnitudo sì. La carta è di riferimento per la classificazione sismica di un comune e, di conseguenza, per legge, impone vincoli sulle caratteristiche costruttive degli edifici la cui rigorosa applicazione ridurrebbe al minimo le perdite di vite umane. In realtà, per le scarse conoscenze che abbiamo della fisica dei terremoti, per le possibili lacune nei cataloghi storici e per i lunghi tempi di ritorno dei terremoti, la carta non è necessariamente “robusta”. In altre parole, non dovrebbe stupire che in futuro in alcune aree potremmo misurare accelerazioni al suolo anche molto più elevate da quanto previsto dalla carta. Inoltre, questo tipo di carte non considera aspetti geologici locali di amplificazione delle onde e alcuni aspetti caratteristici dei terremoti, come la loro tendenza a “clusterizzare” in brevi periodi. Quest’ultima proprietà aumenta di molto la probabilità di un evento sismico. Uno studio del 2011 (successivo al terremoto dell’Aquila) dei terremoti registrati in Italia negli ultimi sessant’anni indica che un terremoto di M > 4 ha circa l’1% di probabilità di essere seguito da un terremoto di magnitudo più grande in un raggio di 10 km dall’epicentro nelle 72 ore successive. Nel caso del terremoto M 6.3 dell’Aquila del 6 Aprile 2006 delle ore 3:32, essendo stato preceduto alle 22:48 del 5 Aprile da un evento M 4, esisteva una probabilità pari all’1% di avere un terremoto come quello che ha colpito la città poche ore dopo. I terremoti: un problema di comunicazione n incremento di probabilità da 0.00001 a 0.01 è un aumento significativo (tre ordini di grandezza) da un punto di vista “scientifico”, ma numeri così piccoli evidenziano la difficoltà di comunicare la pericolosità di un evento alla popolazione e ai decision makers. Che cosa significa che la probabilità di un evento aumenta da 0.00001 a 0.01? Può il sindaco ordinare l’evacuazione di una città perché vi è una probabilità su cento che nei prossimi tre giorni vi sarà un terremoto? E se il terremoto, come probabile al 99%, non arriva, quanto dovrà durare l’evacuazione? Chi coprirà i costi delle giornate lavorative perse? Occorre confrontare i costi economici e sociali dell’evacuazione di una città con quello delle eventuali perdite in caso di mancata evacuazione. Questo comporta U 11 primo piano il giornale dell’Università degli primo piano Studi di Padova carta di pericolosità sismica del territorio nazionale espressa in termini di accelerazione massima del suolo con probabilità di eccedenza del 10% in 50 anni riferita a suoli rigidi (Vs > 800 m/s). anche una valutazione del numero di potenziali vittime e del costo di una vita umana. Anche se “non ha prezzo”, le società di assicurazione attribuiscono un prezzo alle nostre vite. Se moltiplichiamo i costi delle potenziali “perdite” per la probabilità di un evento e li confrontiamo con i costi di evacuazione, è possibile prendere una decisione? è evidente che occorrono delle rigorose normative (preparate lontano dall’emergenza), fondate su un’analisi razionale costi/benefici, cui affidarsi per prendere decisioni che si basano su probabilità estremamente basse di realizzazione di un evento. Nei giorni del terremoto dell’Aquila, in Versilia gli alberghieri stavano procedendo con un’azione legale nei confronti dei metereologi che, avendo stilato bollettini meteo che prevedevano pioggia quando il weekend era stato soleggiato, avevano indotto numerosi turisti a cancellare le prenotazioni negli alberghi. Il terremoto dell’Aquila del 6 Aprile è stato preceduto da una sequenza sismica di circa sei mesi, tra cui l’evento M4.1 del 30 Marzo 2006 cui fece seguito la Riunione della Commissione Grandi Rischi del 31 Marzo 2006. La riunione fu tenuta nella città dell’Aquila in un clima di tensione, sia per una popolazione sottoposta alla snervante crisi sismica, che per le voci di previsione (deterministica) di un grande terremoto ad opera di Giampaolo Giuliani. Le previsioni di Giuliani basate su misure di emissione di Radon, non hanno trovato alcun riscontro, sia pratico (le sue previsioni si sono mostrate errate sia nel tempo che nel luogo) che scientifico: nessuno dei dati raccolti da Giuliani è stato pubblicato su una rivista scientifica e i suoi dati, analizzati da una commissione di esperti internazionali, si sono mostrati non utilizzabili per prevedere un terremoto. Questo non dovrebbe sorprendere: studi rigorosi condotti negli ultimi quarant’anni hanno mostrato la non affidabilità del Radon come precursore. In quei giorni Giuliani fu denunciato per procurato allarme dalla Protezione Civile e probabilmente uno degli scopi della riunione, indetta dalla Protezione Civile, era smentire le dichiarazioni di Giuliani. Alla riunione parteciparono sei scienziati: tre sismologi, Enzo Boschi e Giulio Selvaggi (dell’Istituto Nazionale di Geofisica e Vulcanologia, l’ente preposto al monitoraggio dell’attività sismica sul territorio nazionale), Claudio Eva (dell’Univ. di Genova), il vulcanologo Franco Barberi (dell’Univ. di Roma Tre) e gli ingegneri Gian Michele Calvi (dell’Eu- ropean Centre di Ingegneria Sismica di Pavia), Mauro Dolce e Bernardo De Bernardinis (della Protezione Civile). La riunione durò meno di un’ora e il verbale, aspetto da chiarire, fu firmato la mattina del 6 Aprile, quindi a terremoto avvenuto. Il 31 Marzo, prima della riunione, il vicedirettore della Protezione Civile, l’Ing. De Bernardinis, affermò in un’intervista televisiva che l’Aquila non correva pericolo alcuno perché i numerosi piccoli terremoti stavano scaricando l’energia elastica accumulata nei secoli passati: i cittadini potevano stare tranquilli e bere un bicchiere di Montepulciano d’Abruzzo. La prima regola di comunicazione (e buon senso) è che non è possibile smentire voci scientificamente infondate (le previsioni deterministiche di Giuliani) con affermazioni altrettanto scientificamente infondate (le dichiarazioni di De Bernardinis sono inconsistenti con cento anni di studi di sismologia quantitativa i cui risultati sono il fondamento della previsione probabilistica di un terremoto). Queste affermazioni inesatte non furono contestate da specialisti (forse anche perché non ne erano a conoscenza) nei giorni che precedettero l’evento del 6 Aprile 2006 e, a detta dei parenti delle vittime del terremoto, hanno influenzato le loro decisioni: non abbandonare l’abitazione dopo l’evento M 4.0 delle 22:48 del 5 Aprile. A seguito del terremoto distruttivo del 6 Aprile 2006, i sei scienziati e tecnici che parteciparono alla riunione sono sotto processo facendo gridare la comunità scientifica ad un nuovo caso Galileo: l’accusa è di omicidio colposo e rischiano fino a 15 anni di carcere. L’accusa, come affermato dal PM Fabio Picuti, non è di non aver previsto il terremoto, come inizialmente interpretato dalla comunità scientifica, ma di aver fornito alla popolazione informazioni lacunose e contraddittorie sulla crisi sismica e di non aver comunicato in maniera esaustiva alla popolazione come comportarsi durante la crisi. Benché la posizione di alcuni degli scienziati coinvolti sia diversa (vedi il caso di Giulio Selvaggi che non faceva parte della commissione grandi rischi e fu convocato per riassumere lo stato della crisi sismica) o il fatto che, secondo la Legge, è il Dipartimento della Protezione Civile che sulla base del parere degli esperti, prende delle decisioni sul tipo di azioni da portare alla popolazione, la situazione è complessa. A difesa dei sismologi possiamo affermare che il terremoto era stato previsto pro- < 0.025 g 0.025 - 0.050 0.050 - 0.075 0.075 - 0.100 0.150 - 0.175 0.175 - 0.200 0.200 - 0.225 0.225 - 0.250 0.100 - 0.125 0.250 - 0.275 0.125 - 0.150 0.275 - 0.300 babilisticamente (quindi non nel giorno, Fig. 1), che se le case dell’Aquila fossero state sufficientemente robuste da resistere alle sollecitazioni previste in Fig. 1 forse non ci sarebbero state vittime e che, in ogni caso, è la Protezione Civile l’ente preposto all’azione nei confronti della popolazione. Se il processo dovrà fare chiarezza su molti aspetti (per esempio, i rapporti tra Istituto Nazionale di Geofisica e Protezione Civile, il verbale della riunione della Commissione Grandi Rischi del 31 Marzo 2006 firmato dopo il terremoto del 6 Aprile, ecc.) come dichiarato dal sismologo Tom Jordan, direttore del Southern California Earthquake Center preposto al monitoraggio della Faglia di San Andreas, il processo segna uno spartiacque: il processo costringerà i sismologi di tutto il mondo a rivedere il modo con cui comunicare la probabilità di eventi disastrosi con bassissime percentuali di accadimento e come rapportarsi con i mass media. La comunità scientifica deve avere la massima trasparenza e comunicare nella maniera più chiara possibile messaggi non contraddittori. Nei giorni precedenti e successivi al terremoto dell’Aquila, ricercatori e professionisti a volte con scarsa competenza in fatto di terremoti e impreparati a gestire le domande di un giornalista creavano ulteriore confusione. Abbiamo assistito alla Caporetto della Comunicazione Scientifica con una grave perdita di fiducia da parte del cittadino nei confronti della Scienza. Per affrontare situazioni di questo tipo che inevitabilmente si ripeteranno (vedi il caso del Vesuvio) è indispensabile una regia e un soggetto di riferimento attualmente assenti nella comunità scientifica Italiana (e forse globale). Ma è altrettanto vero che il problema di comunicazione è biunivoco. Diversi giornali (La Repubblica) e uomini politici (Antonio Di Pietro) nei giorni successivi al terremoto proclamavano Giampaolo Giuliani l’eroe inascoltato che aveva previsto il terremoto. È necessario che gli interlocutori (politici, giornalisti, e, di seguito, la popolazione) sappiano selezionare le fonti, conoscano i rudimenti del metodo scientifico, e, in futuro, decision-makers e cittadini siano in grado di prendere decisioni sulla base di previsioni con bassissima probabilità di accadimento. L’alluvione di qualche mese fa di Genova insegna che in Italia (e non solo, basti pensare alla gestione dell’uragano Katrina che infierì lungo la costa meridionale degli USA nel 2005), anche nel caso di previsioni a ele- vata probabilità di accadimento, i decision makers sono impreparati nel gestire queste informazioni. Fortunatamente i terremoti hanno tempi di ritorno lunghi nel nostro paese, da 250 a 1000 e più anni, ma questo si ritorce contro perché dimentichiamo in fretta. È compito dei mass media, debitamente informati (la carta al centro della pagina è accessibile a tutti: http://zonesismiche. mi.ingv.it/mappa_ps_apr04/italia.html) ricordare che il nostro è un paese sismico. L’INGV e molte scuole pubbliche organizzano regolarmente corsi su come occorra agire prima (per esempio, fissare i mobili alle pareti) e durante un terremoto (rifugiarsi sotto le travi portanti o un tavolo), semplici regole di comportamento che possono salvare vite umane. Nei giorni antecedenti al terremoto dell’Aquila, il governo Berlusconi proponeva il piano di ampliamento del 25% delle abitazioni come stimolo alla stagnante economia. Non ci fu un solo parlamentare della maggioranza che avesse ricordato che sarebbe stato più saggio spendere quei soldi per rinforzare le nostre abitazioni. Esiste un’emergenza di comunicazione che è il lontano riflesso di una più accecante emergenza culturale. Bibliografia essenziale Hall, S.S. 2011. At Fault? Nature 477, 264-269. Hough, S., 2010. Predicting the unpredictable. Princeton University Press, Princeton, USA. Jordan, T.H., Chen, Y-T., Gasparini, P., Madariaga, R., Main, I., Marzocchi, W., Papadopoulos, G., Sobolev, G., Yamaoka, K., Zschau, J., 2011. Operational earthquake forecasting. Annals of Geophysics 54, 315-391. in alto al centro la carta di pericolosità sismica del nostro paese (Istituto Nazionale di Geofisica e Vulcanologia, elaborazione aprile 2004) in basso al centro l’Aquila dopo il terremoto di magnitudo 6.3 del 2009 che ha colpito la città. Foto di Massimo Pistore 13