fbpx ChatGPT 5 e le frontiere dell’AGI | Scienza in rete

ChatGPT 5 e le frontiere dell’AGI

Tempo di lettura: 8 mins
ChatGPT 5 e le frontiere dell’AGI

L'imminente uscita di ChatGPT-5 promette di trasformare ulteriormente il panorama della Generative AI con nuove funzionalità. Tuttavia, questo avanzamento tecnologico solleva importanti questioni, tra cui la possibilità che ChatGPT possa essere considerato un'intelligenza artificiale generale (AGI). Il dibattito sull'AGI include diverse definizioni e criteri di misurazione, ponendo domande sulla capacità delle AI di replicare l'intelligenza umana in maniera flessibile e versatile.

Stando alle recenti dichiarazioni di Sam Altman, CEO di OpenAI, l'uscita di ChatGPT-5 è imminente e il già tumultuoso mondo della Generative AI va incontro a una nuova trasformazione. Il cammino del chatbot di OpenAI, atterrato in modo dirompente sulla scena tecnologica il 30 novembre 2022, compie un ulteriore passo avanti in uno sviluppo che sembra senza fine. Eppure, questo cammino si lascia indietro importanti questioni collaterali di carattere giuridico, sociale, etico e filosofico, che è fondamentale affrontare. Proprio su quest'ultimo punto ci concentriamo in quest’articolo, chiedendoci: ChatGPT è un'intelligenza artificiale generale?

Nuove funzioni, migliorie, orizzonti

Tra le nuove funzioni ci sarà sicuramente la possibilità di dare in input, oltre a testi e immagini, anche file audio e video; oltre al fatto, conseguente, di poter generare questo tipo di contenuti. Rispetto a ChatGpt 4, il 5 si doterà inoltre di agenti AI autonomi, in grado di automatizzare task quotidiani come possono gestire attività come la programmazione di appuntamenti, la gestione di email, il fare acquisti online… Il problema delle allucinazioni, che hanno rappresentato uno dei maggiori limiti di ChatGPT, sarà fortemente ridimensionato grazie a un miglioramento della qualità e quantità dei dati, all'integrazione del feedback umano (RLHF) nell'addestramento dei modelli e al miglioramento della tecniche NLP per i controlli di coerenza e sicurezza. Queste innovazioni implicheranno miglioramenti e progressi nella velocità, l'efficienza, l'autonomia e la personalizzazione degli output, tanto che lo stesso Sam Altman non esita a definire “stupido” l’attuale ChatGPT 4, a confronto.

La direzione verso cui sembra muoversi l’AI, come sottolineato da Brad Lightcap, COO di OpenAI, è quella di una relazione di sistema con gli utenti: non più solo uno strumento per lo svolgimento dei task, ma un vero e proprio “compagno di squadra” con cui risolvere problemi. La progressiva “umanizzazione” del modo stesso in cui ci riferiamo a ChatGPT mostra chiaramente che, anche nel linguaggio comune, stiamo iniziando ad attribuirgli uno status sempre più vicino a quello di “persona”.

È da anni ormai che un’idea qualitativa fondamentale, un orizzonte utopico forse, guida statistici, filosofi, scienziati informatici e studiosi dalla più varia estrazione accademica: quella di realizzare un’intelligenza artificiale generale (AGI), ampia, versatile e flessibile come quella umana. E forse il solo fatto che sempre più spesso ci riferiamo a ChatGPT con un pronome personale è un indizio che la direzione è proprio quella.

La singolarità (?)

Il progetto di raggiungere l’AGI è un obiettivo che è presente sin dalla nascita, concettuale e terminologica (McCarthy 1955), del termine Intelligenza Artificiale e non corrisponderebbe ad altro se non all’impresa di riprodurre l’intelligenza umana. Raggiungere l’AGI = riprodurre l’intelligenza umana. A partire da Cartesio e dal suo cogito ergo sum, secoli di tradizione filosofica e scientifica ci hanno sempre raccontato che l’intelligenza e la coscienza rappresentano la nostra peculiarità per eccellenza, ciò che ci distingue da macchine e animali. Se per quanto riguarda almeno questi ultimi la scienza ha messo in dubbio quest’assunto, ci riesce ancora difficile immaginare come un ammasso di circuiti, semiconduttori, transistor e processori in silicio possa riuscire a riprodurci nella nostra interezza.

Le capacità che siamo soliti attribuire alle macchine è quella di svolgere in modo meccanico, automatico e standardizzato una serie di compiti che certamente possono essere svolti dagli esseri umani; ma laddove entrino in gioco capacità come la creatività, il pensiero critico e l’immaginazione, ecco che istintivamente ci viene da tracciare una barriera netta fra noi e “il resto”. Questo comune sentore della nostra unicità ha trovato una difesa raffinata nelle argomentazioni di numerosi filosofi, fra cui i più famosi sono David Chalmers e John Searle. Più che negare in principio l’eventualità futura di una replica dell’intelligenza e della coscienza umana, Chalmers e Searle hanno sviluppato numerosi argomenti che illustrano le difficoltà tecniche e concettuali di tale impresa: gli argomenti più famosi che hanno sviluppato sono rispettivamente quello degli zombie filosofici (Chalmers 1996) e l’esperimento della stanza cinese (Searle 1980).

Tuttavia, l’acqua sotto i ponti continua a scorrere e nuove tecnologie computazionali continuano a nascere, svilupparsi e rendersi sempre più complesse sulla lunga onda della legge di Moore. La scienza ci ripropone quindi il grande quesito: ChatGPT (e gli altri LLM) possiedono le caratteristiche di un’AGI?

AGI

Per (provare a) rispondere, dobbiamo innanzitutto chiederci che cos’è un’AGI. Come riporta un team di ricercatori di Google DeepMind, «Se chiedi a 100 esperti di AI cosa intendono per intelligenza artificiale generale, probabilmente otterrai 100 risposte diverse». L’AGI implica il possesso di una coscienza, nella macchina? È sufficiente la capacità di replicare performance a un livello umano per parlare di AGI, o è necessario osservare dei processi computazionali analoghi a quello del cervello umano? Ma soprattutto, quando un AI smette di essere particolare e diventa generale? Proprio da quest’ultimo punto dobbiamo partire, per abbozzare una definizione abbastanza generale di intelligenza artificiale generale (ci scuserete il gioco di parole): l’AGI si distingue dalle intelligenze artificiali “ristrette” o “particolari”, ossia quei sistemi allenati a svolgere – in modo sorprendentemente efficace – un solo compito.

Hanno fatto notizia e scalpore algoritmi in grado di battere campioni mondiali di scacchi e di Go, di replicare componimenti classici indistinguibili da quelli dei grandi maestri, di diagnosticare malattie con più accuratezza di medici professionisti, di battere campioni del mondo a quiz televisivi… Eppure, questi algoritmi erano in grado di performare accuratamente in un solo compito: un’intelligenza artificiale generale, infatti, si suppone essere capace di svolgere in modo flessibile e versatile una vasta gamma di compiti, in un modo quantomeno analogo (se non superiore) agli esseri umani. Ma AGI non è solo risoluzione di compiti: è anche la capacità di apprendere, comprendere e applicare conoscenze e abilità in contesti nuovi e non previsti, adattandosi a situazioni diverse in modo simile agli esseri umani, in una vastità di ambienti e domini cognitivi varia e mutevole quanto la nostra.

Sebbene alcuni modelli, in passato, siano stati associati al concetto di AGI, mai come oggi è vivo il dibattito sulla possibilità che gli attuali LLM possano effettivamente ambire a questo prestigioso titolo: c’è chi sostiene che, in virtù della loro generalità, lo siano già a tutti gli effetti. La capacità di discutere e rispondere a domande sui temi più svariati, eseguire una molteplicità di task diversi e generare contenuti di diversi formati e tipologie con una creatività indistinguibile da quella umana, garantirebbero a ChatGPT e compagni una legittima investitura ad AGI.

Secondo altri, tuttavia, vi sono differenze fondamentali fra la flessibilità e la generalità degli LLM e quella umana, tali per cui, per quanto possano svilupparsi, questi modelli non saranno mai un’AGI.

È possibile una risposta definitiva? Nella storia della scienza, tre passaggi necessari verso la risoluzione di un problema, la chiusura di una controversia o la risposta a una domanda, sono sempre stati quelli di: 1) definire rigorosamente i concetti considerati, 2) definire rigorosamente i criteri per renderli misurabili, 3) misurarli. Per ambire a rispondere alla domanda “ChatGPT è un AGI?” qualsiasi proposta avanzata deve quindi: 1) definire il concetto, 2) stabilire come misurare le caratteristiche che lo definiscono e 3) testare empiricamente ChatGPT (o i vari altri modelli) che ambiscono a realizzare l’AGI.

È quello che si sono proposti di fare alcuni ricercatori di Google DeepMind. Innanzitutto, vengono definiti 6 principi per la definizione di AGI:

  1. Focus sulle capacità, non sui processi: le definizioni dovrebbero concentrarsi su cosa un'AGI può fare, non su come lo fa. Questo esclude requisiti come il pensiero umano o la coscienza;
  2. Focus su generalità e prestazioni: la definizione di AGI deve includere sia la capacità di eseguire una vasta gamma di compiti (generalità/quantità) sia l'efficacia con cui li esegue (prestazioni/qualità);
  3. Focus su compiti cognitivi e metacognitivi: il focus sui compiti da considerare dev’essere più su task cognitivi (quindi non fisici) e metacognitivi (come l'apprendimento di nuovi compiti o la richiesta di chiarimenti);
  4. Focus sul potenziale, non sull’applicazione nel mondo reale: un sistema deve essere considerato AGI se può potenzialmente eseguire compiti specifici, senza richiedere come banco di prova una sua applicazione nel mondo reale;
  5. Focus sul valore ecologico: i compiti utilizzati per valutare l'AGI devono essere rilevanti e validi nel contesto del mondo reale, riflettendo valori economici, sociali e artistici;
  6. Focalizzazione sulla strada, più che sulla meta: è utile definire dei vari "livelli di AGI" con metriche e benchmark chiari e precisi, per monitorare i progressi e i rischi associati a ciascun livello.

Seguendo questi principi, i ricercatori hanno sviluppato una tabella a matrice: nelle colonne è posto il grado di generalità dei sistemi esistenti, nelle righe il livello di performance. La tabella riflette in modo chiaro il sesto principio di “gradualità nella misurazione”: l’AGI non è un obiettivo finale, ma piuttosto una scala multi-livellare in cui da un lato è misurata il livello di performance, la competenza dei sistemi AI nello svolgimento di certi compiti e dall’altro la generalità, per la quale si distingue fra “AI ristrette” e “AI generali”.

Naturalmente, nel caso delle AI generali, c’è sempre la possibilità che certi compiti siano svolti meglio di certi altri ed è necessario che la cosa sia oggetto di una costante valutazione: per esempio, un AI che sviluppi competenze complesse di ingegneria chimica, ma con ridotte capacità di giudizio etico, può costituire rischi considerevoli.

La definizione, poi, sul come fare questa valutazione è un’altra questione: non solo si potrebbero considerare dei benchmark già esistenti per l’AI, e altri già sviluppati nell’ambito della psicometria e delle scienze cognitive (relativi alla misurazione di intelligenza linguistica, al ragionamento matematico e logico, al ragionamento spaziale…); ma si potrebbe considerare anche una valutazione qualitativa per compiti complessi e svolti in contesti aperti, in cui aspetti ambientali fondamentali non possano essere ridotti in termini quantitativi.

La valutazione è senz’altro un processo complesso, poiché coinvolge diverse funzioni e abilità che performano in modo integrato, e che deve essere iterativo, poiché queste stesse funzioni sono soggette a un costante aggiornamento. Tuttavia, concepire in questi termini l’AGI, che è stato a lungo tempo un concetto filosofico astratto, rappresentativo più di un orizzonte utopico che di una concreta possibilità, ci consente di poterlo maneggiare operativamente e farlo diventare un utile strumento euristico. Come argomentato gli autori, una ricaduta pratica piuttosto immediata ed evidente di concepire l’AGI in modo “graduale” è la sua relazione con la valutazione del rischio: i livelli di performance e la generalità dei sistemi AI possono essere facilmente associati a differenti livelli di rischio nel loro uso. Tanto più un sistema è competente, tanto più ampio è il margine di autonomia che gli può essere accordato nello svolgimento di un compito. E diversi sono quindi i rischi per ogni livello.

 


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Solo il 3,5% delle città europee monitorate ha una buona qualità dell’aria

Inquinamento atmosferico cittadino

Solo 13 città europee tra quelle monitorate su 370 circa rispettano il limite OMS di 5 microgrammi per metro cubo annui di PM2,5. La svedese Uppsala è la prima. Nessuna di queste è italiana. Nonostante la qualità dell'aria e le morti associate sono in continuo calo in Europa, serve fare di più.

Immagine: Uppsala, Lithography by Alexander Nay

La maggior parte delle città europee monitorate non rispetta il nuovo limite dell’OMS del 2021 di 5 microgrammi per metro cubo all’anno di concentrazione di PM2,5. L’esposizione a particolato atmosferico causa accresce il rischio di malattie cardiovascolari, respiratorie, sviluppo di tumori, effetti sul sistema nervoso, effetti sulla gravidanza.