fbpx Non saranno le reti neurali artificiali a darci la medicina di precisione | Scienza in rete

Non saranno le reti neurali artificiali a darci la medicina di precisione

L'intelligenza artificiale sembra lo strumento perfetto per affrontare la complessità delle malattie. Ma nella medicina di precisione  o “dei casi unici", il limite di ciò che può fare è ampiamente superato. 

Tempo di lettura: 12 mins

Negli anni 2000, dopo il sequenziamento del DNA umano, la comunità scientifica fu travolta da un'enorme ondata di entusiasmo e ottimismo. Questo fenomeno coinvolse non solo gli scienziati, ma anche i media e le personalità influenti della politica e della scienza. In molti erano convinti di aver scoperto il linguaggio della creazione della vita e che il progetto del genoma avrebbe rivoluzionato la diagnosi e il trattamento delle malattie umane. Ci furono titoli eclatanti sui giornali, come quello del New York Times che annunciava la decifrazione del codice genetico come il culmine della auto-conoscenza umana.

Il Progetto Genoma Umano in realtà ha dovuto fare i conti con una gran quantità di limitazioni e con critiche molto serie. Uno dei principali punti deboli è stato certamente quello di essersi concentrati principalmente sulla sequenza del DNA, trascurando inizialmente l'importanza delle regioni non codificanti e delle interazioni complesse tra geni. Importanza che le nuove scoperte recenti sugli RNA ha mostrato in tutta evidenza.  Inoltre, anche la variabilità genetica è stata sottovalutata, perché il campione di individui utilizzato nel progetto non aveva una composizione che potesse rappresentare adeguatamente la grande diversità genetica globale. La delusione maggiore del Progetto Genoma Umano è stata la mancanza di soluzioni pratiche per la cura di malattie complesse, perché la correlazione tra genotipo e fenotipo è risultata estremamente più complicata del previsto, mancando proprio uno degli obiettivi principali: individuare le cause molecolari delle malattie specifiche per ciascun individuo. Ecco perché, proprio per cercare di affrontare questo tema cruciale per la medicina moderna, è nata la cosiddetta “medicina di precisione”.

Il sogno della medicina di precisione

La medicina di precisione ha avuto origine nel campo dell'oncologia negli anni '90, quando sono state sviluppate le prime terapie mirate che si concentravano su mutazioni genetiche ben definite associate a tipi di tumori specifici. Oggi, il termine "medicina di precisione" è ormai ampiamente utilizzato e riconosciuto, parallelamente ai rapidi progressi delle tecnologie di sequenziamento del DNA e della biologia molecolare. Ha certamente avuto alcuni eclatanti successi in varie specialità mediche, specialmente nell'oncologia, in cui l'individuazione di mutazioni consente lo sviluppo di nuove terapie mirate. Ma non è ancora abbastanza.

Recentemente, grazie alla vasta quantità di dati e all'analisi molecolare, è emerso come la maggior parte delle malattie sia complessa e multifattoriale. Condizioni come tumori, diabete, malattie autoimmuni e cardiovascolari sono purtroppo comuni e sono influenzate da molteplici cause interdipendenti legate alla storia clinica del paziente. Queste malattie derivano da una combinazione di fattori quali predisposizione genetica ereditaria, alimentazione inadeguata, presenza di altre malattie, esposizione a fattori ambientali stressanti e processo di invecchiamento degli organi e del sistema immunitario del nostro corpo. Si sviluppano gradualmente nel corso di anni, se non decenni, e spesso risultano resistenti alle terapie convenzionali. 

Oltre alla sequenza del DNA, ora possediamo misurazioni molecolari che ci permettono di esaminare in dettaglio le cellule malate. Questi dati, noti come dati "omici", variano da individuo a individuo e da cellula a cellula, includendo informazioni su RNA, proteine, interazioni proteina-DNA, batteri e altri fattori. Utilizzando algoritmi avanzati e risorse di calcolo potenti, l'obiettivo è estrarre informazioni utili per definire con precisione l'unicità di ogni paziente e personalizzare al massimo la terapia.

Siamo dunque a un punto di svolta potenzialmente rivoluzionario: da una parte abbiamo maturato la consapevolezza della complessità delle malattie e, dall’altra, le nuove biotecnologie ci permettono di avere grandi quantità ed eterogeneità di dati clinici e molecolari. Trasformare questi dati in informazioni utili richiede una notevole potenza di calcolo da parte dei moderni sistemi informatici in grado di elaborare i dati in modo efficiente e adattivo. 

Il ruolo dell’intelligenza artificiale

In questo contesto, l'intelligenza artificiale (IA) sembra essere lo strumento perfetto per affrontare e gestire la complessità delle malattie. L'IA ha già dimostrato la sua efficacia in vari settori, come, per esempio, la generazione di testo, il riconoscimento facciale e la sicurezza informatica. Basandosi sul concetto di "rete neurale artificiale", l'IA è in grado di apprendere e adattarsi con nuovi dati, proponendo soluzioni personalizzate basate su algoritmi dedicati e analisi accurate. 

Il termine "intelligenza artificiale" viene ormai comunemente usato per descrivere sistemi informatici in grado di fare inferenze automatiche basate sui dati del mondo reale. Il machine learning, che è la capacità di "imparare" compiti dai dati forniti dagli esseri umani, viene spesso associato all'intelligenza artificiale. Le applicazioni sembrano infinite e il loro elenco continua a espandersi ogni giorno. Questo strumento computazionale sembra quindi essere proprio ciò di cui abbiamo bisogno per affrontare le sfide attuali nella medicina di precisione. 

Ma è davvero così?

Sentiamo cosa ha da dire Roger Shank, uno dei principali teorici dell'IA, professore di informatica a Yale e Stanford, recentemente scomparso. In un'intervista alla CNN, ha dichiarato: 

E se, invece di chiamarla intelligenza artificiale, la chiamassimo un programma per computer?. (Roger Schank, on AI hype, CNN, 2018.)

La provocazione del professor Shank è molto profonda: i nomi che diamo alle cose sono molto importanti perché ne definiscono l'essenza e, soprattutto, evocano il contesto in cui sono collocate e da cui possono riferirsi ad altri significati che le completano, le specificano o le estendono in altre direzioni. In altre parole, i nomi creano aspettative, aspettative a volte nascoste. Non è un caso che il nome di un prodotto farmaceutico ne suggerisca spesso l'efficacia. Ecco perché usare il termine "intelligenza" per qualcosa che certamente non è "intelligenza umana" è sicuramente non solo una cattiva idea, ma anche un'idea molto pericolosa, soprattutto nella medicina di precisione. Vediamo allora come è nata questa associazione fra “reti neurali artificiali” e “intelligenza umana”. L’origine è lontana nel tempo, nei primi anni della guerra fredda fra Stati Uniti d’America e Unione Sovietica.

Neuroni che diventano saggi

New York, estate 1958. Una pubblicazione interna dei Laboratori Aeronautici della Cornell University, era dedicata al sogno proibito dell'umanità: Il progetto di un automa intelligente, firmato da uno psicologo senior del laboratorio, il dottor Frank Rosenblatt. Vale la pena leggere anche il sottotitolo che presenta il "Percettrone" al grande pubblico, ovvero: "Una macchina che percepisce, riconosce, ricorda e risponde come la mente umana". Non male, senza dubbio. L'eco nella stampa generale fu però sorprendentemente debole. Solo il New York Times dell'8 luglio dello stesso anno dedicò alla notizia un brevissimo trafiletto dall’aria disincantata:

Un nuovo dispositivo della marina impara dall’esperienza. Uno psicologo mostra un’embrione di computer progettato per leggere e diventare più saggio. La Marina ha rivelato oggi l'embrione di un computer elettronico che ci si aspetta sarà in grado di camminare, parlare, vedere, scrivere, riprodursi ed essere consapevole della sua esistenza. L'embrione – il computer "704" da 2.000.000 di dollari del Weather Bureau – ha imparato a distinguere tra destra e sinistra dopo cinquanta tentativi nella dimostrazione della Marina per i giornalisti. Il servizio ha detto che avrebbe usato questo principio per costruire la prima delle sue macchine pensanti “Perceptron” che sarà in grado di leggere e scrivere. Si prevede che sarà completato in circa un anno al costo di $100.000. (New navy devices learns by doing, New York Times, 8 luglio 1958)

Cos'è il "Percettrone" di Rosenblatt? È la realizzazione fisica (su un grande computer) di un modello matematico di un neurone umano proposto da Warren S. McCulloch, un neurologo, e Walter Pitts, un logico matematico. I due scienziati americani pubblicarono le loro ricerche nel 1943 sul Bulletin of Mathematical Biophysics e il punto di partenza fu indicato immediatamente dagli autori sin dalle prime righe della loro relazione scritta:

A causa del carattere "tutto o niente" dell'attività nervosa, gli eventi neurali e le relazioni tra loro possono essere trattati per mezzo della logica proposizionale. (McCulloch, Pitts. Bulletin of Mathematical Biophysics 5: 115; 1943).

Che significa? Gli autori ipotizzano che un neurone abbia un'attività puramente binaria, acceso o spento, e che quindi qualsiasi evento che coinvolga i neuroni e le relazioni tra questi, possa essere attribuito alla logica proposizionale, cioè al calcolo di funzioni e operatori logici (sì/no). La tragicamente errata analogia tra neuroni e computer è ormai gettata per sempre nell'arena della scienza.

Dalla visione computazionale del cervello nasce il neurone modello

Il modello di McCulloch e Pitts rappresenta il neurone come l'elemento base per l’elaborazione dei dati, considerandolo un atomo computazionale. I neuroni artificiali sono unità elementari che ricevono input e li elaborano per produrre un'uscita (output). La comunicazione tra neuroni avviene attraverso canali ionici nell'assone, che modulano i segnali elettrici. L'attività elettrica del neurone si manifesta attraverso brevi sequenze di attivazioni chiamate "picchi" o "impulsi", interpretati come segnali binari (0 e 1). Questo modello neuronale si adatta alla visione computazionale del cervello, che utilizza strumenti di calcolo elementari e la capacità di connettersi a numerosi altri neuroni per eseguire operazioni complesse tra input e output.

Secondo McCulloch e Pitts, il cervello è una rete neurale con un numero immenso di neuroni e connessioni. La creazione di un automa che sia in grado di compiere complesse attività cognitive e di essere autocosciente sarebbe possibile in teoria, ma richiederebbe un'enorme quantità di tempo e risorse. L'elaborazione di un singolo neurone artificiale è semplice: i segnali di ingresso vengono amplificati o attenuati attraverso pesi e sommati. Se il valore supera una soglia, l'uscita viene attivata. Per definire completamente un neurone artificiale, è necessario assegnare pesi ai segnali in ingresso e una soglia per l'attivazione dell'output, che viene poi trasmesso al neurone successivo.

In sintesi, McCulloch e Pitts sostengono che i neuroni possono essere considerati come componenti di un computer che lavorano con valori binari (0 e 1) e che le loro funzioni sono definite dalla manipolazione e dalla trasmissione di questi valori ad altri neuroni. 

Tuttavia, il cervello umano è molto più complesso, composto da una vasta rete di neuroni interconnessi, e ridurre il cervello a un sistema di "neuroni artificiali" semplificato non è sufficiente. 

Questa rappresentazione approssimativa e semplificata del cervello non può acquisire le stesse proprietà e complessità del cervello naturale. Sebbene oggi ci sia una frenesia collettiva impressionante intorno all'intelligenza artificiale, i neuroni artificiali non possono nemmeno avvicinarsi in termini di numero e connessioni ai neuroni presenti nel cervello umano. La differenza tra il cervello artificiale e quello reale è enorme, ma in qualche modo si è creduto che questa rappresentazione semplificata potesse giustificare l’accostamento con un cervello umano.

Neuroni artificiali vs neuroni reali

In effetti, l'approccio metodologico di McCulloch e Pitts è del tutto coerente e tipico della moderna modellazione matematica. Il loro successo non è quindi sorprendente. Va infatti ricordato che l'attività scientifica si caratterizza per la sua capacità di "trascurare" i dettagli per cogliere l'essenza del fenomeno, che sarebbe poi il famoso "difalcare gli impedimenti" di Galileo. Ma il punto fondamentale rimane: tra le tante semplificazioni e distorsioni della realtà, è necessario trovare quella che funziona o è utile per gli scopi che ci interessano.

In breve, esiste ancora un mito secondo cui una semplificazione della realtà, basata sulla matematica e su una generica comprensione della biologia, sia sufficiente per ottenere risultati positivi. Tuttavia, ciò non è sempre vero, soprattutto nel campo della biologia. La matematica da sola non garantisce il successo, poiché l'essenza della biologia è complessa e non può essere completamente catturata da semplici modelli matematici. In fisica e ingegneria, l'idea di approssimazione ha avuto successo, ma nella biologia il dettaglio e l'essenza sono strettamente intrecciati e la diversità è fondamentale per la vita. In biologia, non si tratta di trovare un universale astratto, ma di comprendere le particolarità e le specificità dei sistemi biologici.

In sintesi, l'assunto di base del modello di McCulloch e Pitts, che considera l'attività neurale come un processo puramente logico o binario, è un errore gigantesco. I segnali elettrici nel cervello viaggiano attraverso sequenze chiamate "treni di impulsi", e ancora non comprendiamo completamente come i veri neuroni codifichino le informazioni in questi treni di impulsi. L'idea del "neurone artificiale" come elemento fondamentale del cervello è obsoleta, poiché i neuroni reali non operano in binario e il modello matematico di McCulloch e Pitts non tiene conto dei treni di impulsi che trasportano informazioni. Anche nelle moderne reti neurali non vi è traccia di impulsi, ma piuttosto di segnali "artificiali" che possono assumere valori continui. Pertanto, il modello non rispecchia accuratamente la natura dei neuroni reali. E non solo.

Ci sono, infatti, molte altre notevoli differenze tra i neuroni artificiali e quelli biologici che li rendono concetti distanti. Queste differenze includono il numero e la complessità delle connessioni, la codifica delle informazioni, la capacità di creare e distruggere connessioni, la relazione tra complessità e prestazioni, la programmabilità esterna, l'assenza di algoritmi biologicamente plausibili, la mancanza di memoria e capacità di memorizzazione, la struttura asincrona, la diversità e robustezza individuale, la capacità di riparazione, l'unicità e la variabilità dei cervelli umani, l'assenza di bisogni fisiologici come il sonno e l'assenza di sostanza bianca che modula le connessioni neurali. Queste – e tante altre – differenze mettono in discussione la validità del concetto di neurone artificiale come base per comprendere l'intelligenza biologica.

Lo scopritore del DNA, Sir Francis Crick, scrive a questo proposito:

La maggior parte di questi "modelli" neurali non sono quindi affatto modelli, perché non corrispondono sufficientemente strettamente alla realtà. (Crick. La recente eccitazione per le reti neurali. Nature, 337:129-132; 1989)

La IA di fronte alla singolarità

Nella medicina dei "casi unici", o medicina di precisione personalizzata, viene ampiamente superato il limite di ciò che l'intelligenza artificiale può fare, perché questa fa affidamento a forme di apprendimento da casi "analoghi" i quali, per definizione, non esistono nei casi unici. Nel contesto di un gruppo interdisciplinare che includa clinici e analisti dei dati, invece, la discussione si concentrerà sulle cause della malattia anziché sulla loro descrizione. Si analizzeranno infatti i meccanismi molecolari e le proprietà cliniche interne ed esterne, a diverse scale spaziali e temporali, che potrebbero sostenere il mantenimento della condizione patologica. Questo approccio richiede una visione comune delle caratteristiche micro e macro del paziente e la capacità di integrare le competenze dei vari membri del gruppo, come medici ed analisti dei dati, per interpretare correttamente la grande massa di dati eterogenei. 

Non chiamiamola intelligenza artificiale

Il motivo del grande successo nella stampa e nell'opinione pubblica in generale è dovuto esclusivamente al fascino che esercita su di noi l'idea di una macchina che pensa e forse diventa cosciente. Pensateci: se il termine "neurale" non fosse usato, potremmo mai associare la "rete neurale" all'intelligenza? Non credo. E se fosse chiamata "rete di approssimazione non lineare adattiva distribuita"? Con un nome del genere, nessuno lo definirebbe intelligente. Forse noioso, ma non intelligente. Sir Francis Crick scrive su questo:

Come è nata questa curiosa situazione? A parte alcuni entusiasti, la maggior parte dei teorici non crede che, ad esempio, i bambini imparino davvero a parlare usando un'unica, semplice rete di back-prop all'interno delle loro teste. Perché, allora, tali modelli sono considerati non solo utili, ma anche eccitanti? (Crick. La recente eccitazione per le reti neurali. Nature, 337:129-132; 1989)

Gli uccelli hanno sempre ispirato gli esseri umani a volare, ma gli aeroplani di oggi non sembrano scheletri metallici che sbattono le ali in fibra sintetica e respirano, mangiano, defecano e si riproducono da soli. Fanno molto meno, ovviamente, ma quello che fanno (volare) lo fanno molto bene, e molto meglio degli uccelli che li hanno ispirati. L'ispirazione va bene, naturalmente, ma antropomorfizzare le "reti neurali profonde" ci porterà solo a fraintendere ciò che l'intelligenza artificiale può davvero fare. Vogliamo davvero chiamare gli aeroplani "uccelli artificiali"?

Una vera rivoluzione della medicina dei “big data” sarà possibile solo quando il medico di precisione riuscirà a coinvolgere nel suo lavoro l'analista dei dati, integrando il mondo dei numeri nella costruzione della storia del paziente. Allo stesso modo, l'analista dei dati dovrà essere trasportato nel contesto clinico, per comprendere quella parte di realtà che i numeri da soli non riescono a mostrare. Questo richiede una contaminazione reciproca tra medici e analisti dei dati, coinvolgendoli nelle rispettive sfere professionali. Potremmo definire questo processo una vera e propria opera d'arte collettiva.

Non si può, infatti, pensare di utilizzare i risultati di un algoritmo senza sapere come sia stato costruito, su quali ipotesi, su quali dati e su quale visione del problema che ci interessa. Non è più nemmeno pensabile l’idea di separare il mondo dell'analisi dei dati, degli algoritmi più o meno intelligenti, da quello del medico, del clinico, che deve usare questi algoritmi per fare il suo lavoro, per diagnosticare, per prognosticare, per trattare.

 


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Siamo troppi o troppo pochi? Dalla sovrappopolazione all'Age of Depopulation

persone che attraversano la strada

Rivoluzione verde e miglioramenti nella gestione delle risorse hanno indebolito i timori legati alla sovrappopolazione che si erano diffusi a partire dagli anni '60. Oggi, il problema è opposto e siamo forse entrati nell’“Age of Depopulation,” un nuovo contesto solleva domande sull’impatto ambientale: un numero minore di persone potrebbe ridurre le risorse disponibili per la conservazione della natura e la gestione degli ecosistemi.

Nel 1962, John Calhoun, un giovane biologo statunitense, pubblicò su Scientific American un articolo concernente un suo esperimento. Calhoun aveva constatato che i topi immessi all’interno di un ampio granaio si riproducevano rapidamente ma, giunti a un certo punto, la popolazione si stabilizzava: i topi più anziani morivano perché era loro precluso dai più giovani l’accesso al cibo, mentre la maggior parte dei nuovi nati erano eliminati.