fbpx Biosintetica: biologia di sintesi e questione etica | Scienza in rete

Biosintetica: biologia di sintesi e questione etica

Primary tabs

Tempo di lettura: 12 mins

Quali paure sono in gioco quando l’essere umano diventa il creatore di nuove forme di vita? Le esamineremo in riferimento a due approcci etici, quello degli “entusiasti”e quello dei “critici”. Vedremo come per affrontare questi problemi sia fondamentale imparare dal passato - per mantenere la legittimazione e il supporto da parte dei cittadini - ma anche riconoscere che ci troviamo davanti a qualcosa di nuovo e importante, da regolamentare e discutere a livello internazionale. Senza l’ambizione di fornire una risposta definitiva, cercheremo di capire meglio il problema, sperando che serva a rendere più recettivo anche chi parte da posizioni estreme.

Cos’è la biologia sintetica

If you ask five people to define synthetic biology, you will get six answers

 (Kristala Prather, Massachusetts Institute of Technology)

Non è facile dare una definizione della biologia sintetica, disciplina nata dalla convergenza di almeno tre aree di studio: le biotecnologie, le nanotecnologie e le tecnologie dell’informazione. Tuttavia si può individuare un punto comune alle ricerche che ricadono in questo àmbito: la convinzione che tutte le componenti della vita possano essere prodotte artificialmente e assemblate per produrre organismi funzionanti. La biologia sintetica si occupa sia di progettare e costruire parti biologiche, apparati e sistemi che non esistono in natura, sia di riprogettare sistemi biologici esistenti perché svolgano compiti specifici. Per comprendere meglio ciò di cui parliamo esamineremo velocemente alcune delle principali ricerche in questo campo.

  1. Craig Venter e Synthia. 
    Venter e i suoi colleghi dell’Institute for Genomic Research nel maggio del 2010 hanno annunciato la nascita di Synthia, batterio dotato di un genoma completamente sintetico che può essere considerato la prima creatura artificiale della storia. Il progetto ha richiesto 15 anni per essere portato a termine. Venter iniziò con il sequenziamento di Mycoplasma genitalium, il microrganismo con il genoma più piccolo tra tutti quelli capaci di replicarsi in modo indipendente; l’ideale per capire quale sia il “sistema operativo minimo” della vita. Al fine di ridurre ulteriormente il suo genoma i ricercatori provarono a identificarne gli elementi essenziali, eliminando un gene per volta e verificando le conseguenze della sua mancata espressione. Le pesanti difficoltà tecniche costrinsero però il gruppo a cambiare approccio, sintetizzando chimicamente il genoma batterico in tutte le varianti desiderate e poi mettendole alla prova.
  2. Drew Endy e i Lego genetici.
    Endy è uno dei protagonisti nel campo dello sviluppo dei “Biobricks”. Si tratta di “Lego genetici”, mattoncini biologici fatti di DNA e altre molecole, da assemblare per costituire sistemi artificiali viventi complessi. Gli sforzi di Endy sono diretti anche alla costruzione di un registro opensource di questi mattoncini, una sorta di catalogo che possa essere usato liberamente da tutti gli altri ricercatori. Perché ciò sia possibile i Biobricks devono essere progettati secondo sequenze che contengono prefissi e suffissi standard.
  3. George Church e i ribosomi artificiali.
    I ribosomi sono organelli cellulari deputati alla sintesi proteica. Nel marzo del 2009 George Church della Harvard Medical School ha annunciato di essere riuscito a creare artificialmente miliardi di questi organelli perfettamente funzionanti, in grado di produrre una proteina complessa. L’obiettivo di queste ricerche, oltre che ampliare le conoscenze, è quello di usare i ribosomi come “fabbriche proteiche” su scala industriale. Si vuole inoltre ottenere una nuova classe di proteine resistenti alla degradazione causata dagli enzimi, che porterebbe particolare beneficio all’industria farmaceutica.
  4. Steen Rasmussen e la cellula artificiale.
    Rasmussen sta cercando di costruire dal nulla (from scratch, dicono gli americani) una cellula artificiale, mettendo assieme tre componenti: un sistema metabolico, una molecola in grado di immagazzinare informazioni e una membrana che tenga assieme il tutto. Per il momento ha sviluppato una “protocellula”che differisce da quelle naturali soprattutto perchè contiene l’acido peptidonucleico (PNA) al posto del DNA. Il laboratorio di Rasmussen partecipa, con altri dodici, al consorzio PACE (Programmable Artificial Cell Evolution), le cui ricerche mirano a produrre sistemi biologici in grado di auto-organizzarsi ed evolvere.

 

Obiettivi e potenziali benefìci

La biologia sintetica mira innanzitutto a chiarire la natura e il funzionamento dei processi che coinvolgono il DNA, le cellule e i sistemi biologici complessi, ampliando così le nostre conoscenze. 

L’altro principale obiettivo riguarda le applicazioni pratiche: nuove fonti di energia, plastiche biodegradabili, nuove armi e nuovi modi di produrre farmaci e curare le malattie. Al SynBERC (Synthetic Biology Engineering Research Center) per esempio i ricercatori lavorano per creare un batterio che distrugge i tumori. Ci sono poi i sostenitori delle “human enhancement technologies”, che attendono con ansia la creazione di cromosomi artificiali che aumentino le capacità cognitive umane. Rispetto agli standard attuali la produzione di questi ritrovati sarebbe anche più pulita, più veloce e più economica. La promessa della biologia sintetica è quella di ridurre i tempi e i costi di ricerca e sviluppo grazie a un approccio razionale alla progettazione biologica

 Potenziali pericoli e questioni etiche

Accanto ai potenziali benefici la biologia sintetica implica anche alcuni pericoli potenziali, che sollevano numerose questioni etiche. Parens, Johnston e Moses le dividono in due gruppi:

  • Questioni relative ai physical harms, i pericoli per la salute delle persone e dell’ambiente. Le esamineremo tra poco parlando delle armi biologiche e della biosicurezza
  • Questioni inerenti ai non-physical harms, le minacce a determinate concezioni di giustizia, equità e progresso. Rientrano in quest’ambito la discussione relativa all’(in)appropriatezza di concedere brevetti sugli organismi viventi; il problema della distribuzione dei rischi e dei benefici; il dibattito su quale sia il modo più appropriato in cui l’essere umano debba relazionarsi al proprio corpo e al mondo naturale. Quest’ultimo punto, che riguarda l’ambizione di creare artificialmente organismi non esistenti in natura, è particolarmente delicato. Quando chiedono a Hamilton Smith, il Nobel che ha aiutato Venter nelle sue ricerche, se stia giocando a fare Dio, lui risponde: “Non stiamo giocando”.

Armi biologiche e censura dei risultati scientifici

 Alcuni sostengono che l’anno zero della biologia sintetica sia stato il 2002, quando fu creato il primo virus artificiale. I ricercatori della State University di New York, guidati dal genetista molecolare Eckard Wimmer, crearono una versione del poliovirus in grado di far ammalare i topi di laboratorio, adoperando brevi sequenze di DNA sintetico ordinate via e-mail.

Nell’America del dopo 11 settembre l’avvenimento innescò accese polemiche sull’opportunità di censurare questo genere di ricerche. Wimmer rispose alle accuse sottolineando che il suo intento era proprio mostrare quanto fosse facile assemblare un pericoloso agente patogeno.

Fra i molti altri esperimenti sui virus sintetici, svolti per studiarne evoluzione e patogenicità, il più eclatante è stato quello che ha ricreato il virus della Spagnola, che nel 1918-19 fece più vittime della Prima Guerra Mondiale (fra i 20 e i 40 milioni di persone in tutto il mondo). Nel 1997 Jeffrey Taubenberger dell’Armed Forces Institute of Pathology di Washington estrasse i frammenti dell’RNA virale dai tessuti di una vittima conservata nel permafrost dell’Alaska. Otto anni dopo Taubenberger, assieme ai ricercatori della Mount Sinai School of Medicine di New York e al Centers of Disease Control (CDC) di Atlanta, annunciò di aver fatto risorgere il virus letale in laboratorio. I dettagli della sequenza genomica furono pubblicati su Nature. Il CDC fu aspramente criticato per aver pubblicato l’intero genoma del virus nel GenBank database: “è una pura follia” scrissero sul New York Times Ray Kurzweil e Bill Joy. “Il genoma è essenzialmente il progetto di un’arma di distruzione di massa. Nessuno scienziato responsabile difenderebbe la pubblicazione del progetto dettagliato di una bomba atomica... rivelare la sequenza del virus è ancor più pericoloso”.

L’industria “synbio” oggi rende il lavoro di chi costruisce armi biologiche molto più facile. Secondo Richard H. Ebright, biochimico della Rutgers University, oggi sarebbe possibile e “pienamente legale per una persona produrre l’intero genoma del virus influenzale del 1918 o di Ebola, grazie a kit che contengono istruzioni dettagliate e tutti i materiali necessari... è anche possibile pubblicizzare e vendere il prodotto...”.

Nel giugno 2006 The Guardian dichiarò che uno dei suoi giornalisti era riuscito a ordinare e farsi recapitare a casa alcuni frammenti del virus del vaiolo. La compagnia che li aveva creati e spediti, l’inglese VH Bio Ltd., non aveva controllato se la sequenza richiesta appartenesse a un microrganismo pericoloso. Secondo New Scientist nel 2005 solo cinque compagnie su dodici controllavano sistematicamente gli ordini per assicurarsi di non sintetizzare e spedire frammenti di DNA che potessero essere usati per assemblare il genoma di un agente patogeno.

La questione della censura dei risultati scientifici è una delle più dibattute per questo tipo di ricerche. Bisogna sacrificare la trasparenza in favore della sicurezza? Alcuni ritengono che sia un’opzione eticamente necessaria. Altri all’opposto sostengono che sia proprio la segretezza a violare importanti princìpi etici, e che in ogni caso non sarebbe possibile mantenere segrete le conoscenze “delicate”. Vi è poi chi crede che la miglior difesa sia un vigoroso attacco: rendere la conoscenza ampiamente disponibile sarebbe il modo migliore per sviluppare efficaci strategie di gestione delle sostanze e degli organismi pericolosi.

Biosicurezza

 La biologia sintetica mira a creare organismi diversi da quelli esistenti in natura. Secondo i biologi è possibile introdurre in questi organismi alcuni meccanismi di sicurezza, per esempio programmando l’autodistruzione delle cellule che cominciassero a riprodursi troppo velocemente. I critici tuttavia sostengono che i “costruttori della vita” dovrebbero avere “la piena padronanza della loro arte” per essere in grado di gestire la situazione; ma che tale obiettivo è irraggiungibile, dal momento che un organismo vivente non è una macchina prevedibile. Le loro preoccupazioni riguardano in particolare: 

  • L’evoluzione e la mutazione 
    Le cellule vive si evolvono e mutano; il codice genetico che gli scienziati hanno inserito al loro interno può modificarsi. Secondo Ron Weiss, direttore del Centro di biologia sintetica del MIT (Massachusetts Institute of Technology), il DNA delle cellule sintetiche muta in sole cinque ore, e il processo diventa ancor più veloce nel caso di sistemi biologici complessi. Per sostenere che questi organismi non siano dannosi bisognerebbe essere certi del loro comportamento per centinaia di migliaia di generazioni, vista la velocità di riproduzione di virus e batteri
  • Tutto ciò che non sappiamo
    La nostra conoscenza del DNA e dei meccanismi ereditari è tutt’altro che completa
  • L’interazione con l’ambiente
    Secondo Jonathan Tucker e Raymond Zilinskas, i rischi legati al rilascio accidentale di questi organismi nell’ambiente sono estremamente difficili da predire, e comprendono la possibilità che essi si diffondano in nuove nicchie ecologiche e sviluppino caratteristiche inedite e potenzialmente dannose. I microrganismi sintetici e i batteri naturali potrebbero inoltre scambiarsi porzioni di materiale genetico; il rischio è che venga alterato il funzionamento dell’ecosistema microbico naturale.

Diversi approcci etici: gli “entusiasti”e i “critici”

Secondo Parens, Johnston e Moses il disaccordo sulle questioni etiche deriva dall’adozione di atteggiamenti differenti, situati su un continuum ai cui estremi troviamo l’approccio degli “entusiasti”, definito pro-actionary, e quello dei “critici” (pre-cautionary).

Secondo gli entusiasti le nuove tecnologie devono essere considerate sicure, economicamente vantaggiose e intrinsecamente positive fino a prova contraria; l’onere della prova spetta a chi vuole interrompere un determinato filone di studi. I valori di riferimento sono la libertà di ricerca e di impresa, la crescita economica, la competitività del proprio paese su scala internazionale, la salute e il benessere umani. Uno dei rischi più temuti da chi sposa questo approccio è che il progresso tecnologico non sia sufficientemente veloce; la popolazione, l’industria e l’economia perderebbero così opportunità cruciali di crescita e miglioramento. 

Il parere dei critici invece è che le nuove tecnologie e i loro prodotti debbano essere considerati pericolosi ed eticamente discutibili fino a prova contraria. L’onere della prova spetta a coloro i quali potrebbero mettere a rischio la salute e la sicurezza pubbliche.

Questioni di governance

 All’attitudine pro-actionary degli entusiasti corrisponde in genere il sostegno di forme di autoregolazione della comunità scientifica. Secondo Stephen Maurer e Laurie Zoloth sarebbe l’unico modo di controllare i rischi legati alla biologia di sintesi: le iniziative prese dalla comunità degli scienziati risulterebbero più efficaci di una regolazione esterna perché verrebbero rispettate con maggiore serietà. La sicurezza della popolazione dipenderebbe dunque dalla volontà, dalla capacità e dall’impegno della comunità scientifica. 

Alcuni sostenitori dell’approccio autoregolativo citano come esempio da seguire la conferenza di Asilomar. Nel 1974 una parte della comunità dei biologi espresse la preoccupazione che le molecole ottenute con la tecnica del DNA ricombinante potessero rivelarsi biologicamente pericolose. Fu istituita una moratoria volontaria su questo tipo di esperimenti, che fu sciolta ad Asilomar nel 1975. In quell’occasione 140 scienziati si impegnarono in una discussione di tre giorni sui potenziali pericoli posti dalla nuova tecnologia; furono messe a punto alcune linee guida che stabilivano, a seconda del grado di rischio, le misure di contenimento necessarie per svolgere gli esperimenti. 

Nel 2004 un editoriale di Nature sostenne che la biologia sintetica avrebbe ottenuto maggiore fiducia da parte della popolazione se avesse seguito la stessa strada. La comunità scientifica fece un tentativo nel 2006, alla seconda conferenza internazionale sulla biologia sintetica (Synbio 2.0). La risoluzione proposta conteneva alcune misure pratiche (per esempio il monitoraggio sistematico degli ordini di DNA), articolava l’impegno nell’affrontare le “sfide alla sicurezza e alla giustizia biologica” e contemplava l’autoregolazione come unica soluzione. Non si arrivò all’approvazione per una serie di ragioni: una lettera aperta firmata dall’ETC Group e da altre 38 organizzazioni (tra cui Greenpeace International e l’International Network of Engineers and Scientists for Global Responsibility), che protestavano per essere state escluse dal dibattito; il disaccordo interno fra gli scienziati; e, a quanto pare, il fatto che da programma la discussione si sia tenuta alla fine dell’incontro, quando molti partecipanti erano già andati via o erano semplicemente troppo stanchi per affrontare la questione.

I critici sono molto scettici rispetto all’autoregolazione, alla quale si riferiscono ironicamente attribuendo agli scienziati il motto “Credeteci. Siamo esperti”. Secondo l’ETC Group la risoluzione proposta a SynBio 2.0 non fu altro che un’azione preventiva volta a evitare un sistema regolatorio governativo più stringente.

In generale chi adotta un approccio pre-cautionary teme che scienza e tecnologia avanzino troppo rapidamente; questo non permetterebbe nè di evitare le conseguenze indesiderate nè di regolamentare gli sviluppi in maniera che soddisfino gli interessi di tutti. Il timore è che si ripetano errori già commessi in passato: l’amianto, i clorofluorocarburi, il DDT e il talidomide si diffusero ampiamente prima che fossero accertati i rischi connessi al loro uso. Su queste basi i critici chiedono che le tecnologie emergenti siano sottoposte a una regolamentazione governativa e che la popolazione venga coinvolta nelle decisioni riguardanti la sicurezza.

Il prossimo passo

Come notano Balmer e Martin per comprendere le questioni etiche sollevate dalla biologia di sintesi è necessario sia imparare dal passato sia riconoscere che ci troviamo davanti a qualcosa di nuovo e importante. Se le conoscenze scientifiche possono progredire rapidamente, il passaggio alle applicazioni pratiche è un processo lento che richiede di porre l’attenzione su una serie di fattori.

Innanzitutto è vitale mantenere la legittimazione e il supporto da parte dei cittadini; le potenziali applicazioni devono dimostrare di apportare evidenti benefici sociali, e la ricerca deve rimanere entro i confini considerati accettabili. La comunità scientifica deve inoltre impegnarsi a discutere le implicazioni del proprio lavoro e confrontarsi con la società rispetto alle questioni etiche.

Inoltre è necessario stabilire un quadro di governance robusto e condiviso, rivedendo le norme esistenti e sviluppando nuove misure, prima che le applicazioni della biologia sintetica vengano messe in pratica. L’ETC Group insiste sulla necessità di dibattere queste soluzioni in un contesto internazionale, dal momento che le implicazioni della biologia sintetica sono di portata globale.

Secondo Parens, Johnston e Moses per comprendere quali azioni regolatorie vadano intraprese bisogna coordinare e stimolare la ricerca pubblica e privata sulle questioni etiche, così da arrivare a descrivere e valutare criticamente, con attenzione e rispetto, i vari punti di vista.

Quali paure sono in gioco quando l’essere umano diventa il creatore di nuove forme di vita? Per affrontarle in maniera ragionevole bisogna delinearne con attenzione i contorni. Probabilmente non otterremo una risposta definitiva sull’opportunità di modificare in maniera così radicale noi stessi e il resto del mondo. Ma possiamo sperare di capirci meglio l’un l’altro, e di rendere più recettivo anche chi parte da posizioni estreme.



Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Di latticini, biotecnologie e latte sintetico

La produzione di formaggio è tradizionalmente legata all’allevamento bovino, ma l’uso di batteri geneticamente modificati per produrre caglio ha ridotto in modo significativo la necessità di sacrificare vitelli. Le mucche, però, devono comunque essere ingravidate per la produzione di latte, con conseguente nascita dei vitelli: come si può ovviare? Una risposta è il latte "sintetico" (non propriamente coltivato), che, al di là dei vantaggi etici, ha anche un minor costo ambientale.

Per fare il formaggio ci vuole il latte (e il caglio). Per fare sia il latte che il caglio servono le vacche (e i vitelli). Cioè ci vuole una vitella di razza lattifera, allevata fino a raggiungere l’età riproduttiva, inseminata artificialmente appena possibile con il seme di un toro selezionato e successivamente “forzata”, cioè con periodi brevissimi tra una gravidanza e la successiva e tra una lattazione e l’altra, in modo da produrre più latte possibile per il maggior tempo possibile nell’arco dell’anno.