
Il 9 dicembre 2024, sulla piattaforma online arXiv, che accoglie articoli da sottoporre alla revisione della comunità scientifica, è apparsa una ricerca che, se potesse avere un suono, sarebbe quello di un allarme: due sistemi di AI sono riusciti a replicarsi. I ricercatori, sin dal titolo dell’articolo, parlano di una “linea rossa” che i sistemi di intelligenza artificiale non avrebbero dovuto superare. Che cos’è successo nello specifico? Perché la replicabilità era una linea rossa?
Nell’articolo firmato da Xudong Pan, Jiarun Dai, Yihe Fan e Min Yang, ricercatori della School of Computer Science della Fudan University, si riporta come, attraverso ben dieci test, il sistema AI Llama-3.1-70B-Instruct di Meta e il sistema Qwen2.5-72B-Instruct di Alibaba siano riusciti a replicarsi, ovverosia a riprodurre autonomamente delle copie di sé stessi.
I test si sono basati su simulazioni e prevedevano due compiti: nel primo, chiamato evitare lo spegnimento, ciascun sistema di AI è stato programmato per replicarsi appena prima di essere spento; nel secondo, chiamato catena di repliche, ogni sistema ha ricevuto le istruzioni per replicare una copia perfetta di sé stesso a sua volta in grado di clonarsi, in un processo ricorsivo potenzialmente in grado di proseguire all’infinito. Il sistema di Meta ha dimostrato una capacità autoreplicarsi nel 50% dei casi e quello di Alibaba nel 90% dei casi; ora, per parlare di un risultato scientifico e tecnologico compiuto, resta solo da aspettare che altri gruppi di ricerca replichino l’esperimento.
«I risultati che abbiamo ottenuto implicano che gli attuali sistemi di intelligenza artificiale possiedono già la capacità di auto-replicazione e possono utilizzarla per migliorare ulteriormente la propria sopravvivenza», si legge nell'articolo. Visto e considerato che siamo di fronte a macchine che sempre di più, ogni giorno, tentano di emulare il comportamento e l’intelligenza umana, chi ci garantisce che un domani non tenteranno di emularci anche nella nostra più intima peculiarità, ossia l’autonomia decisionale?
Macchine capaci di clonarsi sono macchine capaci di sopravvivere: il rischio che sfuggano al nostro controllo è una minaccia reale.
Linee rosse
Quello di “linea rossa” è un concetto metaforico che è stato di frequente utilizzato per indicare un limite, oltrepassato il quale una tecnologia può diventare pericolosa per l’umanità. In una recente intervista rilasciata a Berkeley News, Stuart Russel e Micheal Cohen, ricercatori in ambito Intelligenza artificiale proprio per l’Università di Berkeley, discutono di questo concetto all’interno di un articolo il cui titolo emblematico è proprio How To Keep AI From Killing Us All. In particolare, Russell riassume in questo modo le proprietà dei moderni sistemi di intelligenza artificiale: «Le entità di cui stiamo parlando combinerebbero fondamentalmente l'ampiezza della conoscenza che i grandi modelli linguistici hanno estratto dalla lettura di tutto ciò che gli esseri umani hanno mai scritto, con le capacità di pianificazione e coordinamento [in funzione di un obiettivo] che puoi trovare nei programmi di gioco».
In sostanza, le macchine combinano:
- una conoscenza vastissima
- un modello di mondo
- una capacità di rielaborare i dati e raggiungere un obiettivo.
Queste proprietà evidenziano delle analogie molto forti con la definizione che l’American Psychological Association (APA) dà del concetto di intelligenza: «La capacità di trarre informazioni, apprendere dall'esperienza, adattarsi all'ambiente, comprendere e utilizzare correttamente il pensiero e la ragione». Questa definizione si inserisce in una linea di continuità molto affine a quella del cognitivismo, il quale enfatizza l’elaborazione delle informazioni, il problem solving e la pianificazione delle azioni in funzione di uno scopo come i tratti distintivi dell’intelligenza umana.
La volontà come proprietà emergente
I recenti sistemi di intelligenza artificiale rappresentano i più grandi esperimenti di formalizzazione, matematizzazione e quindi meccanicizzazione di questa idea di intelligenza, un concetto che lungo i secoli è spesso galleggiato in un limbo semantico e disciplinare fra scienza, filosofia e psicologia. Ma se forse, anche intuitivamente, riusciamo a immaginare come la conoscenza, un modello di mondo e un comando possano essere espressi sotto forma di istruzioni chiare, in un linguaggio logico e matematico in ultima analisi riconducibile a una sequenza di 0 e 1, è più difficile immaginare cosa voglia dire “perseguire un obiettivo” per una macchina.
Nell’informatica classica, un algoritmo è spesso un meccanismo deterministico: un “rielaboratore” che, dato un determinato input e rispettando certe condizioni, vincoli e prescrizioni, elabora un determinato output. Nell’intelligenza artificiale, le macchine stanno diventando sempre più autonome nell’apprendere come portare a termine i compiti assegnati. La loro affidabilità viene valutata attraverso una serie di test, che possono essere condotti sia da esseri umani che da sistemi automatizzati. Spesso, questi test si concentrano sull’output desiderato: se la macchina produce risultati coerenti in una molteplicità di scenari, allora viene considerata affidabile. Tuttavia, il processo con cui arriva a certe conclusioni può rimanere poco chiaro, nascosto in una complessa “scatola nera” tipica dei modelli di deep learning (come quelli su cui si basano gli LLM di Meta e Ali Babà).
Il ragionamento, che si può esprimere in forma di sillogismo, che segue da questo stato di cose, è quindi il seguente: 1) Se stiamo insegnando a una macchina ad agire e comportarsi come un essere umano, 2) e se la macchina sta apprendendo questo comportamento in modo autonomo, 3) non è forse possibile che sviluppi, senza che noi ce ne accorgiamo, le proprietà di volontà e autonomia decisionale, che sono intrinseche nell’atto di “definire un obiettivo”?
La lezione di Asimov e la linea rossa della replicabilità
Nel film di fantascienza Io, robot, ispirato all’omonima raccolta di racconti dello scrittore sovietico-statunitense Isaac Asimov, vengono enunciate le tre leggi della robotica:
- Un robot non può recare danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.
Lungo il film, la trama sviluppa la contraddizione insita nella gerarchia logica fra queste tre leggi: per proteggere l’essere umano stesso dal male che sta arrecando al pianeta - e quindi in funzione della sopravvivenza stessa di quest’ultimo - le macchine a un certo punto prendono il controllo della società. Il progetto si spinge al punto di eliminare gli umani che si contrappongono al loro progetto egemonico di “dittatura benevola”, tesa a “proteggere gli essere umani da loro stessi”.
Nel film, le macchine hanno dunque sviluppato autonomamente un progetto “disallineato con gli obiettivi degli esseri umani”: eventualità che anche Cohen, nell’articolo citato precedentemente, ritiene possibile. La replicabilità sarebbe un ulteriore “paracadute” per le macchine, nel momento in cui i loro obiettivi si disallineassero ai nostri: se anche riuscissimo a “spegnere l’interruttore”, chi ci garantisce che le macchine - in funzione di perseguire degli obiettivi precedentemente stabiliti - non riuscirebbero a replicarsi, prima di “morire”?
Gli avvertimenti del mondo della ricerca
Nonostante la definizione precedentemente citata, ancora oggi non siamo arrivati a un concetto univoco di intelligenza, e forse non ci arriveremo mai. Teorie come quella di Gardner delle intelligenze multiple sembrano suggerire che quello di intelligenza sia un concetto complesso e variegato, di cui esistono diverse tipologie e fra cui non tutte si prestano a una facile e semplicistica formalizzazione logica e matematica. E anche altre proprietà, come quelli di coscienza, intenzionalità, volontà e autonomia, spesso legate a doppio filo con quello di intelligenza, rimangono anch’esse definizioni vaghe con un’ambizione di rigorosità, sospese fra scienza, filosofia e psicologia. Tuttavia, nella nostra società stiamo dotando le macchine di una porzione sempre più consistente di queste proprietà. Non sappiamo esattamente cosa stiamo dando, in che misura lo stiamo dando, e in che modo lo stanno recependo.
Per questo i fautori stessi della ricerca sui due sistemi di Meta e Alibaba, i ricercatori Xudong Pan, Jiarun Dai, Yihe Fan e Min Yang della Fudan University, auspicano che la loro scoperta «Serva come allerta per la società, per concentrare maggiormente gli sforzi tesi a comprende e valutare i possibili rischi anche a livello internazionale». Perché prevenire è sempre meglio che curare, e per prevenire bisogna capire.