fbpx Il principio di precauzione, per non arrivare più in ritardo | Scienza in rete

Il principio di precauzione, per non arrivare più in ritardo

Read time: 10 mins

E' opinione comune nel milieu scientifico che il principio di precauzione sia difficilmente applicabile e contrario ai buoni principi della scienza. Difficilmente applicabile perché pretenderebbe di non consentire l'immissione sul mercato di nuove tecnologie fino a quando non se ne sia dimostrata la loro sicurezza sotto tutti i possibili profili: cosa ovviamente impossibile. Contrario alla scienza perché pretenderebbe di verificare tutte le ipotesi (di innocuità di una tecnologia o sostanza) anziché falsificare quelle che di volta in volta sembra ragionevole vagliare (per es. i cellulari provocano il tumore al cervello?).

In realtà quella sopra esposta è una caricatura del principio di precauzione. Il quale sembra piuttosto voler regolare in modo nuovo e più efficace il rapporto fra scienza e governance dei rischi. Esso, in altre parole, nasce dalla constatazione storica che troppo spesso nuove tecnologie e/o sostanze si sono diffuse nonostante si fossero manifestati quasi da subito eloquenti segnali di criticità che avrebbero dovuto consigliare cautela nella loro applicazione. Il principio di precauzione, in altre parole, almeno nella sua forma più elastica e ragionevole, vorrebbe essere un richiamo all'umiltà del metodo scientifico e a una considerazione più realistica della intrinseca imprevedibilità e complessità degli effetti delle nuove tecnologie sulla salute e sugli ecosistemi.

Prima di diventare una sorta di principio regolativo della governance dei rischi soprattutto in ambito europeo, questo principio è stato fatto oggetto di una serie di interessanti disamine e puntualizzazioni. Quella forse più convincente è il rapporto elaborato dall'Agenzia europea dell'ambiente “Late lessons from early warnings: the precautionary principle 1896-2000” pubblicato esattamente dieci anni fa (2001) ma ancora poco conosciuto (1). La novità e l'interesse dell'opera risiede nel radicare questo principio in una serie di esempi storici di mancati allarmi relativi a tecnologie e sostanze al loro esordio utili e apparentemente sicure che molto rapidamente si sono mostrate problematiche per la salute e/o per gli ecosistemi. Tesi del libro è che un approccio più cautelativo, “umile” e indipendente avrebbe potuto cogliere tempestivamente queste avvisaglie e risparmiare molte vite e danni di vario genere sostituendo o regolamentando meglio queste tecnologie, e in ultima istanza vietandole laddove necessario.

Dodici lezioni da imparare

Gli esempi riportati, e le “lezioni tardive” (late lessons) che essi ci ispirano, sono dodici. Ricordiamone alcune. La prima è quella delle radiazioni ionizzanti che datano al 1895, quando Conrad Roentgen annunciò la scoperta dei raggi x, seguita dalla scoperta del radio ad opera dei coniugi Curie. Una tecnologia, quella delle radiazioni, che si rivelò in seguito tanto utile quanto problematica da gestire. Le prime segnalazioni di lesioni alla pelle, caduta dei capelli, cataratte agli occhi e altre lesioni conseguenti all'esposizione ai “raggi” risalgono addirittura a Thomas Edison (1898) e proseguono negli anni immediatamente successivi in America e in Europa, dove medici e soprattutto dentisti proposero da subito di porre dei limiti alle esposizioni per evitare danni maggiori (fra i quali malformazioni fetali dovute a irraggiamento delle gravide, 1904). Perché – si chiedono gli autori di Late lessons – fu necessario il trauma di Hiroshima e Nagasaki per arrivare a stabilire una disciplina radioprotezionistica adeguata? Certo i tempi non erano maturi per un approccio cautelativo, e tanto meno lo era la scienza.

La storia si ripete con i benzene, utilizzato fin dall'Ottocento nell'industria della gomma, poi delle materie plastiche e come antidetonante nelle benzine. A partire dal 1897, alla sostanza vengono imputati primi casi di anemia aplastica in operaie di una manifattura di gomme da bicicletta in Svezia. Da allora le segnalazioni si moltiplicano, fino ad arrivare al primo caso riportato in letteratura (degli italiani Dolore e Borgomano) di leucemia indotta dall'esposizione a benzene (1928). Da dopo la seconda guerra mondiale la Società internazionale di igiene industriale comincia a porre limiti via via più stringenti alle concentrazioni consentite di benzene nei luoghi di lavoro. Limiti, tuttavia, superiori almeno di un ordine di grandezza alle soglie alle quali si erano già osservati effetti avversi. Perché questa sottovalutazione e questo ritardo nelle misure cautelative, che solo molto più recentemente (negli USA nel 1978) avrebbero portato le autorità a ritirare il prodotto dai negozi di bricolage e a limitarne (ma non a eliminarne) la presenza nei carburanti? In parte questo è dovuto a considerazioni economiche (il benzene era molto più economico di altri solventi), in parte anche al lavoro di screditamento che le società produttrici misero in opera contro gli studi tossicologici ed epidemiologici tesi a dimostrare la dannosità del benzene.

Quest'opera di manipolazione dei dati scientifici tramite la propagazione di uno scetticismo strumentale verso la scienza più impegnata nella difesa della salute pubblica è una costante che accompagna lo sviluppo industriale degli ultimi due secoli. La ritroviamo, oltre che nel caso di scuola del fumo di sigaretta, nell'amianto. Le straordinarie proprietà ignifughe di questa minerale vennero scoperte in Canada nel 1879, quando si diede inizio alla sua estrazione e commercializzazione. E' impressionante vedere come alla curva di produzione dell'asbesto (che ebbe il suo picco negli anni '60-'70) seguì – con 40 anni di ritardo – la curva delle morti per mesotelioma nei lavoratori e nei familiari. Ma di nuovo: perché si dovettero aspettare gli anni ottanta-novanta del secolo scorso per bandirlo (non ovunque, peraltro, visto che in Canada è ancora legale) quando la prima segnalazione di nocività risale addirittura al 1898 (presso una fabbrica in Gran Bretagna) e la irrefutabile dimostrazione epidemiologica del fatto che potesse causare tumore alla pleura e al polmone fu siglata da Richard Doll nel 1955? In questo colpevole ritardo giocarono più fattori. Certamente la lunghissima incubazione della malattia (40 anni) non aiutò le autorità sanitarie a percepire con la dovuta forza il nesso di causa ed effetto fra l'esposizione all'asbesto e le morti per mesotelioma e altri tumori. Poi giocarono di nuovo fattori economici ed occupazionali. Ma anche in questo caso va segnalato un approccio scientifico – un “principio regolativo” - che anziché far seguire alle prime segnalazione un occhiuto e continuo monitoraggio dei lavoratori esposti, lavorò episodicamente sul problema senza un raccordo fra accademia e operatori (anche scientifici) più a diretto contatto con le malattie da asbesto, come i medici del lavoro e di famiglia.

La scienza e la precauzione

Si potrebbero fare altri casi di “lezioni tardive da allarmi precoci” che non furono colte soprattutto nel campo della tutela della salute pubblica, come nel caso dei bifenili policlorinati (PCB) o dell'anidride solforosa (SO2). In quest'ultimo caso è interessante notare come la scienza, sicura del fatto suo, indusse le autorità regolatorie ad alzare le ciminiere in modo da disperdere in atmosfera la sostanza inquinante. Un favore fatto ai polmoni, certamente, che tuttavia facilitò con l'immissione in quota dell'inquinante il fenomeno delle piogge acide, vero incubo degli anni settanta, con il suo strascico laghi e foreste malate sopratutto nel Nord Europa.

Questo per rimarcare un altro aspetto del principio di precauzione, secondo il quale la scienza deve cercare attivamente i “segnali” di criticità delle sostanze cercando di ridurre l'incertezza. Ma allo stesso tempo deve cercare di esplorare con mente sgombra da pregiudizi e una certa dose di audacia e fantasia altri possibili (e a volte imprevedibili) effetti, in modo da ridurre anche l'ignoranza intorno ai fenomeni. Tutto ciò mette in luce il carattere complesso e non lineare della realtà, a cui il principio di precauzione cerca di rispondere con strumenti e paradigmi nuovi. Il primo dei quali consiste proprio nell'invertire l'onere della prova, partendo dal presupposto che una nuova tecnologia è, se non “colpevole” quanto meno “sospetta” fino a prova contraria. Va quindi attentamente monitorata fin da subito in modo da cogliere tempestivamente eventuali segnali di interferenza con i sistemi viventi e gli habitat.

Chi avrebbe mai potuto immaginare, ad esempio, che gli innocui (quanto a tossicità umana) clorofluorocarburi (CFC) potessero provocare il buco nell'ozono? La scoperta (1974) in questo caso fu il frutto serendipico della migliore scienza accademica che valse ai tre ricercatori il Nobel per la chimica nel 1995. Ciononostante, solo dieci anni dopo la scoperta, una osservazione satellitare della stratosfera effettuata per altri scopi rivelò la rapida formazione stagionale del buco dell'ozono sopra l'Antartide. L'immaginazione scientifica non era arrivata a ipotizzare che i CFC potessero già aver intaccato l'ozono sopra l'Antartide, e solo a quel punto i protocolli internazionali misero le basi per un controllo planetario delle sostanze mangia-ozono determinando così forse la prima applicazione pratica del principio di precauzione: di fatto, il bando delle sostanze al cloro era avvenuto ancora prima della compiuta dimostrazione scientifica della loro nocività.

Se con l'ozono la risposta portò nel giro di poco tempo a un miglioramento della situazione, vi sono altre storie raccontate in “Late lessons” che fanno capire quanto irreversibili possano essere le contaminazioni ambientali. E' il caso dell'inquinamento dei Grandi Laghi che dividono il Canada dagli Stati Uniti dovuto al percolamento delle sostanze organiche persistenti (POP) scaricate dalle industrie chimiche circostanti. Una lunghissima storia di battaglie e controversie che ha la sua data d'inizio con Silent Spring di Rachel Carson e la sua inchiesta paradigmatica contro il DDT e gli altri pesticidi (1962),(2) e un'altra tappa storica nella battaglia di Love Canal fino allo spostamento dei 900 residenti per ordine presidenziale nel 1980. (3) La contaminazione dei pesci dei Grandi Laghi, la maggiore incidenza di malformazioni alla nascita dei bambini nati da madri che di quei pesci si sono alimentate, compone un quadro di emergenza ambientale cronica, irrisolvibile nel breve-medio termine. (su questo tema si vedano anche i risultati del recente studio Sentieri)

Complessità, trasparenza, partecipazione

Come insegna la contaminazione dei Grandi Laghi, i cambiamenti di lunga portata, addirittura con effetti transgenerazionali sono un altro argomento a favore dell'adozione del principio di precauzione, che compensa la mancanza di prove definitive con la gravità della posta in gioco. In fondo anche le “storie di successo”, come quella della riduzione del buco dell'ozono sopra l'Antartide prima accennata, dovrebbero sempre essere sottoposte a un atteggiamento di prudente cautela e scetticismo. In un mondo complesso e soggetto a modificazioni continue degli habitat per cause naturali e umane le battaglie non si vincono mai una volta per tutte, come dimostra proprio in questi anni la constatazione della riapertura del buco dell'ozono, questa volta sopra il Polo Nord.(4)

Ultima “lezione” da trarre da questi casi studio è l'importanza della partecipazione dei non esperti al processo di governance dei rischi ambientali. Non perché – spiegano gli autori del libro – i laici siano necessariamente portatori di verità indiscutibili, tutt'altro. Come insegnano le parabole dei vari comitati, il tema della partecipazione e di una corretta rappresentanza è fra i più insidiosi. Tuttavia la partecipazione dei diversi portatori di interessi e conoscenze locali garantisce approcci complementari a quelli professionali e scientifici, e spesso anche la conoscenza reale di processi che senza contraddittorio verrebbe falsata per il prevalere degli interessi forti o della pura inerzia delle autorità regolatorie. Richiamo alla realtà e partecipazione sono due aspetti intimamente legati, come mostra l'esempio che segue: spesso l'analisi tradizionale del rischio considera macchine e impianti come dovrebbero funzionare e non nelle loro reali condizioni di esercizio, come emerge ormai correntemente nei test sulle emissioni dei motori. Non a caso si parla oggi nei nuovi test dei veicoli euro 6 di “real world emission” come distinti dalle “type approval emission”. Fra gli uni e gli altri – in particolare per i veicoli heavy duty – la differenza può essere veramente molto ampia, anche a causa del fatto che ancora oggi le norme europee prescrivono test in condizioni operative medie e non basate sulle condizioni di marcia stop-and-go dei bus urbani, giusto per fare un esempio. Se qualcosa sta cambiando in questi anni è merito anche di quei gruppi di pressione che tallonano da vicino – con forme anche inedite di collaborazione – i grandi istituti di ricerca. Per l'Italia, sulle analisi delle emissioni dei veicoli, è il caso del rapporto di gruppi come i Genitori antismog e il Joint Research Centre di Ispra.(5)

Tutto questo è principio di precauzione. Non dunque, come pensano alcuni, il frutto di un atteggiamento irrazionale e antiscientifico, quanto il tentativo di fare scienza in un modo più moderno, partecipato, trasparente e orientato alla prevenzione attiva dei rischi.

 Pubblicato in: Valutazione Ambientale, n. 20; luglio-dicembre 2011. (vedi anche: http://www.analistiambientali.org/)

Bibliografia
1. D. Gee, S. Guedez Vaz, a cura di (2001), Late lessons from early warnings: the precautionary principle 1896-2000, European Environmental Agency.
2. R. Carson (1962), Silent Spring, Houghton Mifflin, Boston.
3. A.G. Levine (1982) Love canal: Science, politics and people, Lexington Books.
4. V. Barone (2011) “Il nuovo buco dell'ozono”, scaricabile dal webjournal Scienzainrete: http://www.scienzainrete.it/contenuto/articolo/nuovo-buco-di-ozono
5. A. Krasenbrink, a cura di (2011), 9th intermediate technical/scientific report. Collaborative research Project for Air Pollution Reduction in Lombardy region (2006-2010), JCR, European Commission.

Articoli correlati

Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Siamo troppi o troppo pochi? Dalla sovrappopolazione all'Age of Depopulation

persone che attraversano la strada

Rivoluzione verde e miglioramenti nella gestione delle risorse hanno indebolito i timori legati alla sovrappopolazione che si erano diffusi a partire dagli anni '60. Oggi, il problema è opposto e siamo forse entrati nell’“Age of Depopulation,” un nuovo contesto solleva domande sull’impatto ambientale: un numero minore di persone potrebbe ridurre le risorse disponibili per la conservazione della natura e la gestione degli ecosistemi.

Nel 1962, John Calhoun, un giovane biologo statunitense, pubblicò su Scientific American un articolo concernente un suo esperimento. Calhoun aveva constatato che i topi immessi all’interno di un ampio granaio si riproducevano rapidamente ma, giunti a un certo punto, la popolazione si stabilizzava: i topi più anziani morivano perché era loro precluso dai più giovani l’accesso al cibo, mentre la maggior parte dei nuovi nati erano eliminati.