fbpx Terremoto dell’Aquila: mancato allarme o mancata previsione? | Scienza in rete

Terremoto dell’Aquila: mancato allarme o mancata previsione?

Primary tabs

Tempo di lettura: 14 mins

La notizia che la Procura della Repubblica dell’Aquila indaga sulle responsabilità penali per “mancato allarme di terremoto” i ricercatori universitari, i funzionari dell’Istituto Nazionale di Geofisica e Vulcanologia e del Dipartimento della Protezione Civile, tutti componenti della Commissione Grandi Rischi, ha fatto il giro del mondo e la comunità scientifica nazionale ed internazionale si è mobilitata per esprimere la propria solidarietà ai colleghi ricercatori italiani coinvolti in questa triste, e per certi versi assurda, vicenda.

Ma vi erano i presupposti scientifici per lanciare un’ allerta al terremoto e, conseguentemente, adottare particolari misure di emergenza quale l’evacuazione di un’intera città? E’ oggi possibile predire un terremoto, sulla base di fenomeni precursori, quali possono essere l’evidenza di anomalie nell’emissione del radon o l’occorrenza di sciami sismici di bassa magnitudo? Qual è il ruolo degli scienziati nel caso di un’emergenza sismica ed a chi compete la decisione circa le azioni da intraprendere per la sicurezza della popolazione?

Sulla base delle attuali conoscenze circa le modalità di generazione dei terremoti, possiamo affermare che tale predizione non è oggi possibile e forse non lo sarà neanche in un prossimo futuro.

Pur tuttavia, negli ultimi quattro decenni, una vasta sperimentazione è stata condotta a scala planetaria con l’obiettivo di identificare e misurare segnali precursori dei terremoti, tra cui gli sciami sismici precursori e le anomalie nella concentrazione del gas radon nel sottosuolo. Questa ha prodotto risultati fallaci e contraddittori, e nessuno dei metodi o degli indicatori proposti per la previsione dei terremoti ha dimostrato di essere statisticamente affidabile, laddove l’affidabilità viene misurata dal rapporto tra le previsioni riuscite e quelle mancate.

Anche l’affidabilità statistica dei due fenomeni precursori (occorrenza di sciami sismici con scosse di bassa magnitudo ed anomalie di radon) di cui si dibatte l’osservazione e l’uso per la predizione nel caso del terremoto dell’Aquila è bassa.

Mentre la previsione deterministica è attualmente impraticabile, quella “probabilistica” è invece possibile, sul medio (qualche anno) e lungo termine (decine di anni). Essa è di fatto sperimentata nel nostro Paese come in altri paesi sismici nel mondo, da alcuni decenni.

Dato per assodato che, nella migliore delle ipotesi, il “decisore”, sia esso la Protezione Civile Nazionale o altre autorità preposte all’attuazione delle misure di emergenza nel caso dei terremoti, disporrà di una previsione probabilistica e quindi di un valore (presumibilmente basso) di probabilità di occorrenza in una vasta area di un sisma di una magnitudo superiore ad una data soglia, resta tuttavia il problema di come tale decisione debba essere presa, secondo quali protocolli attuativi ed in misura a quali effetti essa può produrre.

In questo schema generale delle responsabilità, secondo cui una decisione dipende dal dato scientifico, ma anche dall’impatto socio-economico della decisione stessa, pare evidente la distinzione dei ruoli: da una parte ci sono gli scienziati che stimano le incertezze dei modelli predittivi e calcolano le probabilità di occorrenza dei terremoti. Dall’altra ci sono i decisori (che sarebbe opportuno non fossero gli stessi scienziati che forniscono i dati scientifici) che, sulla base di queste valutazioni, intraprendono le azioni necessarie alla mitigazione dei danni producibili dai disastri naturali. Nel settore dei rischi industriali le decisioni sono prese sulla base del “rischio accettabile”, che rappresenta il costo socio-economico che si è disponibili a pagare nel caso di evento disastroso.

Questo approccio rigoroso è probabilmente quello da seguire nel caso del rischio sismico. Definendo protocolli decisionali, chiari e trasparenti, basati su metodi e dati scientifici anch’essi definiti e derivanti dallo stato di conoscenze scientifiche attuali ed aggiornabili, man mano che nuove informazioni sono acquisite. La comunicazione rigorosa ed al tempo stesso “facilitata” dell’informazione scientifica al grande pubblico è un elemento fondamentale per la mitigazione degli effetti dei terremoti, rendendo più consapevoli ed informati i cittadini delle aree sismiche, ed educandoli ad una convivenza responsabile con il rischio dei terremoti.

Nel frattempo, la vicenda giudiziaria dei ricercatori indagati per il mancato allarme in occasione del terremoto dell’Aquila, farà il suo corso e ne aspettiamo gli esiti. Con la curiosità di verificare se sia un’aula di tribunale, piuttosto che un laboratorio di ricerca o una conferenza scientifica il luogo più idoneo per dibattere sulla prevedibilità dei terremoti.

[pagebreak]

Sono appena tornato da Parigi dove si è tenuta in questi giorni una conferenza internazionale di Sismologia, a cui hanno partecipato scienziati di tutto il mondo. La domanda più ricorrente dei miei colleghi stranieri, sorpresi e sbigottiti , è stata :”Ma cosa succede in Italia, dove alcuni ricercatori sismologi italiani sono indagati dalla magistratura per il mancato allarme del terremoto dell’Aquila?”.

Eh, sì, perché la notizia che la Procura della Repubblica dell’Aquila indaga sulle responsabilità penali per “mancato allarme di terremoto” i ricercatori universitari, i funzionari dell’Istituto Nazionale di Geofisica e Vulcanologia e del Dipartimento della Protezione Civile, tutti componenti della Commissione Grandi Rischi, ha fatto il giro del mondo e la comunità scientifica nazionale ed internazionale si è mobilitata per esprimere la propria solidarietà ai colleghi ricercatori italiani coinvolti in questa triste, e per certi versi assurda, vicenda.

Che la storia della mancata previsione del terremoto dell’Aquila, dovesse finire prima o poi in un’aula di tribunale, ve n’erano le avvisaglie già nei giorni che hanno preceduto e seguito la tragedia. Infatti da alcuni mesi, nella regione poi colpita dal terremoto, era in corso uno sciame sismico, con terremoti di piccola magnitudo, alcuni dei quali avvertiti dalla popolazione. Poi c’è stato Giampaolo Giuliani, tecnico dei laboratori INFN del Gran Sasso, che basandosi su misure di anomalie della quantità di radon emessa dal sottosuolo e rilevate da strumenti da lui realizzati, ha lanciato a mezzo stampa un “allarme al terremoto imminente”. Allarme che la Protezione Civile ha reputato inaffidabile dal punto di vista scientifico, valutando che non fosse  il caso di attuare misure preventive di emergenza, come l’evacuazione della popolazione nell’area a rischio. Ed infine c’è stato il terremoto, che ha raso al suolo interi quartieri della città dell’Aquila e dei suoi sobborghi, con la morte di 300 persone, migliaia di feriti, decine di migliaia di senza-tetto, ed un doloroso bilancio di distruzione e devastazione. Le immagini delle macerie dell’Aquila, città dall’inestimabile patrimonio artistico e storico, sono rimbalzate nelle televisioni e nei siti-web di tutto il mondo con una risonanza ed un impatto mediatico senza precedenti per un terremoto la cui magnitudo (M 6.3) sulla scala Richter è tuttavia classificabile come moderato. Nei giorni successivi il terremoto, la polemica sul “mancato allarme”, certamente alimentata dalla “previsione” inascoltata di Giuliani, è infuriata sulla stampa ed i media nazionali, con toni aspri, talvolta irragionevoli, coinvolgendo nel dibattito amministratori pubblici, scienziati, giornalisti, politici e comuni cittadini, alla ricerca di responsabili per un disastro che molti hanno definito “annunciato”.

Ma vi erano i presupposti scientifici per lanciare un’allerta al terremoto e, conseguentemente, adottare particolari misure di emergenza quale l’evacuazione di un’intera città? E’ oggi possibile predire un terremoto, sulla base di fenomeni precursori, quali possono essere l’evidenza di anomalie nell’emissione del radon o l’occorrenza di sciami sismici di bassa magnitudo? Qual è il ruolo degli scienziati nel caso di un’emergenza sismica ed a chi compete la decisione circa le azioni da intraprendere per la sicurezza della popolazione?

Predire un terremoto per mitigarne gli effetti  sulla popolazione significa stimarne con sufficiente anticipo il tempo origine, il luogo in cui esso si produrrà e soprattutto quale sarà la sua magnitudo. Ma ciò non basta. Per un reale utilizzo della predizione, si dovrebbe essere in grado di affiancare alla stima di questi parametri una valutazione del loro grado di incertezza, che consenta, ad esempio, di prendere decisioni, essendo consapevoli della possibilità di incorrere in falsi allarmi, che genererebbero enormi disagi, perdite economiche considerevoli e ripercussioni nel  medio termine sulla vita economica e sociale della comunità interessata.

Sulla base delle attuali conoscenze circa le modalità di generazione dei terremoti, possiamo affermare che tale predizione non è oggi possibile e forse non lo sarà neanche in un prossimo futuro. I terremoti sono prodotti da fenomeni di frattura, che interessano per lo più la parte superficiale della crosta terrestre, governati da un gran numero di variabili che ne determinano l’innesco, la propagazione e l’arresto.  Negli istanti iniziali i terremoti piccoli e grandi si somigliano, mentre la loro dimensione finale, e quindi il loro potere distruttivo dipende dal modo in cui si evolve la frattura che lo genera e dalle caratteristiche di fragilità delle rocce in cui si sviluppa. Ciò vuol dire che, sebbene gli studi sulla sismicità storica e le osservazioni circa la sismicità di fondo, ci consentono di individuare nel nostro Paese, le aree sedi potenziali di futuri terremoti, predire esattamente il tempo di occorrenza di un terremoto (cioè la previsione “deterministica”) può non essere mai possibile.  

Pur tuttavia, negli ultimi quattro decenni, una vasta sperimentazione è stata condotta a scala planetaria con l’obiettivo di identificare e misurare segnali precursori dei terremoti, tra cui gli sciami sismici precursori e le anomalie nella concentrazione del gas radon nel sottosuolo. Questa ha prodotto risultati fallaci e contraddittori, e nessuno dei metodi o degli indicatori proposti per la previsione dei terremoti ha dimostrato di essere statisticamente affidabile, laddove l’affidabilità viene misurata dal rapporto tra le previsioni riuscite e quelle mancate. Recentemente Cicerone et al. (2009) (Robert D. Cicerone, John E. Ebel, James Britton, 2009, A systematic compilation of earthquake precursors. Tectonophysics, 476, 371-396) hanno pubblicato una compilazione completa e sistematica di un gran numero di precursori sismici delle osservazioni a loro correlate e della, purtroppo non incoraggiante, statistica circa la loro debole affidabilità.

Nella storia più o meno recente ci sono esempi famosi che bene illustrano l’inaffidabilità dei segnali precursori dei terremoti. Nell’inverno del 1975, in Cina, nella provincia di Haicheng, le autorità ordinarono l’evacuazione della popolazione, circa un milione di persone, sulla base di molteplici osservazioni contemporanee di fenomeni precursori che comprendevano sciami sismici, deformazione del suolo, cambiamento nel livello delle falde acquifere superficiali, ma anche comportamento anomalo degli animali. Nel Febbraio 1975, un terremoto di magnitudo pari a 7.3 (circa 30 volte più energetico dell’evento aquilano) ha avuto luogo, causando un numero limitato di vittime rispetto a quante sarebbero potute essere senza l’allerta preventiva. L’anno successivo, sempre in Cina, ma nella provincia di Tangshan, un terremoto di magnitudo superiore al precedente (M 7.6) è arrivato inatteso, senza che fosse stato osservato nessuno dei segnali precursori del terremoto di Haicheng, ma questa volta causando più di 250.000 vittime.

In Italia, un caso particolare è stato quello del falso allarme per un terremoto in Garfagnana, nell’Appennino Tosco-Emiliano. In questa regione, nel 1920 un terremoto di magnitudo 6.4, causò un limitato numero di vittime rispetto alla potenza del sisma, poiché la scossa fu anticipata, il giorno precedente, da un terremoto di magnitudo piccola, ma risentito  dalla popolazione, per cui molte persone si salvarono non rientrando nelle case, ma rimanendo a dormire all’aperto. Nel Gennaio del 1985, in seguito all’occorrenza di un terremoto di magnitudo 4.2, fu lanciato un allarme dalla Commissione Grandi Rischi, sulla base del quale, l’allora ministro della Protezione Civile, Giuseppe Zamberletti, ordinò l’evacuazione di circa 100.000 persone. Il terremoto non accadde ed il ministro fu messo sotto inchiesta per procurato allarme.

Qual è dunque l’affidabilità statistica dei due fenomeni precursori (occorrenza di sciami sismici con scosse di bassa magnitudo ed anomalie di radon) di cui si dibatte l’osservazione e l’uso per la predizione nel caso del terremoto dell’Aquila?

Per ciò che riguarda gli sciami sismici, è stato possibile verificare che circa il 70% dell’attività sismica di bassa magnitudo (M inferiore o uguale a 4) a scala planetaria, non è seguita da terremoti di magnitudo più elevata, il che indica un’affidabilità statistica di questo precursore del 30%. Per alcune aree italiane (Friuli, Irpinia e Garfagnana), Grandori e Guagenti in un recente articolo stimano che a valle di un precursore di piccola magnitudo, la probabilità di occorrenza di un forte terremoto è circa 3%, cioè, mediamente, solo tre forti terremoti su 100 sono preceduti da scosse di magnitudo più bassa.

Anche le variazioni di concentrazione di radon nell’aria o nelle acque sotterranee, sono riconosciute da diversi decenni come fenomeno precursore di terremoti, sebbene anch’esse con bassa affidabilità statistica,  come nel caso degli sciami sismici. In questo caso, però, alla bassa affidabilità del precursore, si aggiunge la completa indeterminazione della magnitudo, del luogo di occorrenza ed ovviamente del tempo origine del futuro terremoto. Nei casi favorevoli compilati negli ultimi 40 anni, si sono infatti rilevate anomalie di radon sia in occasione di terremoti di piccola magnitudo (che non producono alcun danno) che di grande magnitudo, a distanze dallo strumento di misura di pochi km o diverse centinaia di km. Questa indeterminazione rende praticamente inutilizzabile la previsione basata sul precursore radon, ai fini di misure preventive, quali l’evacuazione delle aree a rischio.

Mentre la previsione deterministica è attualmente impraticabile, quella “probabilistica” è invece possibile, sul medio (qualche anno) e lungo termine (decine di anni). Essa è di fatto sperimentata nel nostro Paese come in altri paesi sismici nel mondo, da alcuni decenni. Sulla base di informazioni disponibili dal catalogo storico dei terremoti, da osservazioni geologiche delle faglie e da misure del campo di deformazione della superficie terrestre è possibile valutare la probabilità di occorrenza di terremoti di magnitudo superiore ad una soglia prefissata in un lungo periodo, tipicamente dieci anni o più. Questo metodo ha consentito di realizzare le mappe di pericolosità sismica, che sono alla base della classificazione sismica del territorio e che viene utilizzata per regolamentare la progettazione anti-sismica nel nostro paese. Sul breve periodo (giorni, mesi) il metodo di previsione probabilistica è soprattutto sperimentato durante la fase post-sismica, nella stima di occorrenza delle repliche (talvolta anch’esse con effetti distruttivi) dei forti terremoti. La si applica anche, recentemente ed in forma retrospettiva, ai micro-terremoti precursori dei forti terremoti (come nel caso dell’Aquila). Ma in questi casi, si osservano bassi valori percentuali di probabilità, sebbene le variazioni rispetto ai valori della sismicità di fondo appaiono significative.

Per ritornare alle polemiche ed alle accuse conseguenti il terremoto dell’Aquila, non si è abbastanza evidenziato che l’area interessata dal sisma, era ben classificata tra quelle a più elevata probabilità di occorrenza per un terremoto di M uguale o maggiore a 5.5 sul periodo di un decennio, come riportato nelle varie versioni delle mappe di pericolosità rilasciate in seguito ai terremoti degli ultimi 20 anni in Italia. Le esperienze degli Stati Uniti e del Giappone, ci insegnano che una previdente politica di gestione e pianificazione del territorio, il rispetto delle norme per la costruzione e l’adeguamento anti-sismico degli edifici, ed una capillare campagna di informazione e conoscenza del rischio sismico da parte delle popolazioni che vivono in zone a rischio, consentono di ridurre drasticamente gli effetti dei terremoti e di  convivere pacificamente con essi. Probabilmente tra le azioni su indicate, qualcuna poteva essere intrapresa negli anni precedenti, nelle aree poi colpite dal sisma dell’Abruzzo, alla luce dei riscontri delle mappe di pericolosità, e chissà, forse gli effetti del terremoto sarebbero stati meno devastanti di quanto accaduto.

Dato per assodato che, nella migliore delle ipotesi, il “decisore” (o decision maker nella definizione anglo-sassone), sia esso la Protezione Civile Nazionale o altre autorità preposte all’attuazione delle misure di emergenza nel caso dei terremoti, disporrà di una previsione probabilistica e quindi di un valore (presumibilmente basso) di probabilità di occorrenza in una vasta area di un sisma di una magnitudo superiore ad una data soglia, resta tuttavia il problema di come tale decisione debba essere presa, secondo quali protocolli attuativi ed in misura a quali effetti essa può produrre.

In questo schema generale delle responsabilità, secondo cui una decisione dipende dal dato scientifico, ma anche dall’impatto socio-economico della decisione stessa, pare evidente la distinzione dei ruoli: da una parte ci sono gli scienziati che stimano le incertezze dei modelli predittivi e calcolano le probabilità di occorrenza dei terremoti. Dall’altra ci sono i decisori (che sarebbe opportuno non fossero gli stessi scienziati che forniscono i dati scientifici) che, sulla base di queste valutazioni, intraprendono le azioni necessarie alla mitigazione dei danni producibili dai disastri naturali. Nel settore dei rischi industriali le decisioni sono prese sulla base del “rischio accettabile”, che rappresenta il costo socio-economico che si è disponibili a pagare nel caso di evento disastroso. Difficile estrapolare questi concetti al caso dei terremoti, laddove il rischio accettabile è necessariamente molto basso, prossimo a zero, e quindi i costi delle decisioni conseguenti a previsioni con livelli di probabilità molto bassi, sarebbero ingenti.

Ma questo approccio rigoroso è probabilmente quello da seguire nel caso del rischio sismico. Definendo protocolli decisionali, chiari e trasparenti, basati su metodi e dati scientifici anch’essi definiti e derivanti dallo stato di conoscenze scientifiche attuali ed aggiornabili, man mano che nuove informazioni sono acquisite. Queste procedure vanno comunicate e condivise con le amministrazioni locali e con le popolazioni delle aree a rischio, nei confronti delle quali va attuata una permanente campagna di informazione e sensibilizzazione, anche indirizzata alla comprensione del concetto probabilistico della previsione dei fenomeni naturali. La comunicazione rigorosa ed al tempo stesso “facilitata” dell’informazione scientifica al grande pubblico è un elemento fondamentale per la mitigazione degli effetti dei terremoti, rendendo più consapevoli ed informati i cittadini delle aree sismiche, ed educandoli ad una convivenza responsabile con il rischio dei terremoti.

Nel frattempo, la vicenda giudiziaria dei ricercatori indagati per il mancato allarme in occasione del terremoto dell’Aquila, farà il suo corso e ne aspettiamo gli esiti. Con la curiosità di verificare se sia un’aula di tribunale, piuttosto che un laboratorio di ricerca o una conferenza scientifica il luogo più idoneo per dibattere sulla prevedibilità dei terremoti.

Articoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Di latticini, biotecnologie e latte sintetico

La produzione di formaggio è tradizionalmente legata all’allevamento bovino, ma l’uso di batteri geneticamente modificati per produrre caglio ha ridotto in modo significativo la necessità di sacrificare vitelli. Le mucche, però, devono comunque essere ingravidate per la produzione di latte, con conseguente nascita dei vitelli: come si può ovviare? Una risposta è il latte "sintetico" (non propriamente coltivato), che, al di là dei vantaggi etici, ha anche un minor costo ambientale.

Per fare il formaggio ci vuole il latte (e il caglio). Per fare sia il latte che il caglio servono le vacche (e i vitelli). Cioè ci vuole una vitella di razza lattifera, allevata fino a raggiungere l’età riproduttiva, inseminata artificialmente appena possibile con il seme di un toro selezionato e successivamente “forzata”, cioè con periodi brevissimi tra una gravidanza e la successiva e tra una lattazione e l’altra, in modo da produrre più latte possibile per il maggior tempo possibile nell’arco dell’anno.