Le IA possono raggiungere obiettivi impensabili per l'uomo, ma la loro logica di funzionamento differisce radicalmente da quella umana e può portare a conseguenze inaspettate se non regolamentate adeguatamente. L'Unione europea, con la prima "Legge sull'intelligenza artificiale", ha intrapreso un percorso di regolamentazione etica e legale dell'IA per prevenire abusi e garantire che il progresso tecnologico sia allineato con i valori umani fondamentali. Immagine: EU flag, Stable diffusion v2.0.
Nello Cristianini, nel libro “La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano” riporta la macabra storia della zampa di scimmia. Si narra la vicenda dei coniugi White, che un giorno entrarono in possesso di una zampa di scimmia in grado di esaudire tre desideri. Coppia di poche pretese, i due espressero come primo desiderio di avere 200 sterline per saldare un vecchio debito. Sul momento non successe niente. Tuttavia, il giorno dopo, un postino bussò mestamente alla loro porta. Recava la notizia della morte sul posto di lavoro del figlio dei due, assieme a una busta con un indennizzo portata dalla fabbrica: 200 sterline.
In questa storia sono riassunti timori e tremori del rapporto essere umano-intelligenza artificiale, il cui nucleo può essere così condensato: se da un lato le macchine ci consentono di fare cose prima inimmaginabili e possono aiutarci nella ricerca scientifica, nel lavoro e nel più generale progresso della società, dall’altro ragionano in modo totalmente diverso. Le macchine non sanno autonomamente che mezzi evitare per raggiungere i fini desiderati, non sanno che variabili considerare se non quelle esplicitate. Tuttavia, in una certa misura, apprendono e ragionano in modo autonomo: trovano da sé le “scorciatoie” per raggiungere un risultato. Inoltre, nelle mani sbagliate, queste stesse macchine possono aggirare i paletti dell’etica e del diritto arrivando a manipolare e condizionare le persone in modo decisivo: lo scandalo di Cambridge Analytica è forse l’esempio più eclatante fra i tanti che si potrebbero fare. È per questo che diventa necessaria una regolamentazione per “tenere a bada” queste macchine, definirne gli usi leciti, richiedere trasparenza sulla loro produzione e, per quanto possibile, “capirle”.
Per quanto concetti come “intelligenza”, “creatività”, “originalità”, “libertà” siano spesso vaghi e sfumati, ci troviamo a doverli usare come pietra di paragone quando ci interroghiamo sul nostro rapporto con le intelligenze artificiali: quello che sappiamo per certo è che - almeno in certi domini – le macchine arrivano a certi risultati in modo differente da noi. E spesso in un modo anche oscuro: le reti neurali artificiali del deep learning, esplicitamente ispirate alle strutture neurali del nostro cervello, sono reti multistrato il cui funzionamento interno è una “scatola nera”. Attraverso complessi processi di calcolo, da un input arrivano all’output. È ovviamente di nostro interesse che l’output sia quello desiderato: tuttavia, il “come ci arrivano” è ancora in gran parte un mistero. E se la zampa di scimmia generasse effetti collaterali imprevisti? Inoltre, data la stretta dipendenza dai dataset di apprendimento, siamo sicuri che la macchina non sviluppi pericolosi “bias”, incorporando e sovra-regolarizzando pregiudizi contenuti nei dati? Non a caso stanno nascendo numerosi gruppi di ricerca che tentano di scardinare questa scatola nera.
È in ragione di queste principali preoccupazioni, che si diramano nei più disparati ambiti d’applicazione, che l’Europa, gli Stati Uniti, il Regno Unito, insomma, il mondo intero si sta armando di regolamentazioni ad hoc, volte a limitare, normare, declinare l’intelligenza artificiale all’interno della società.
Il cammino della regolamentazione in Europa: l’AI ACT
Sarebbe impossibile riassumere tutti i provvedimenti che a livello europeo hanno interessato l’intelligenza artificiale negli ultimi anni: i settori si suddividono in industria, pubblica amministrazione, digitale, ricerca scientifica, le tematiche etiche e politiche toccano la sfera della privacy, il mercato del lavoro, l’interazione uomo-macchina.
Ciò che però è emerso negli ultimi anni, specie nei provvedimenti più astratti (solitamente quelli sovrannazionali) sono degli orientamenti di fondo, dei principi valoriali che possiamo leggere alla luce dei timori e delle sfide soprammenzionate. L’AI Act è il primo passo di una legislazione solida e unitaria, con cui l’Europa diventa la prima entità sovrannazionale a dotarsi di una legge che regolamenterà l’intelligenza artificiale: sin dalle prime battute del testo si intuisce il focus sulla tutela dei diritti e della privacy dei cittadini. Così recita infatti il primo paragrafo:
Lo scopo del presente regolamento è promuovere la diffusione di un'intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto, nonché dell'ambiente, dagli effetti nocivi dei sistemi di intelligenza artificiale nell'Unione, sostenendo nel contempo l'innovazione e migliorando il funzionamento del mercato interno.
La prima preoccupazione è che l’intelligenza artificiale sia “umano-centrica” e “affidabile” solo secondariamente l’accento si sposta sull’innovazione e il corretto funzionamento del mercato.
Lungo il testo è evidente il tentativo di bilanciare le istanze di un’innovazione competitiva sul piano tecnologico ed economico, al passo con le altre superpotenze mondiali, e di una salvaguardia dei diritti cardine dell’UE, in special modo quelli legati alla privacy e alla libertà dei cittadini. Gli usi dei sistemi di intelligenza artificiale sono stati classificati sulla base del rischio che comportano: minimo, elevato, inaccettabile e legati alla trasparenza. Anche solo dando uno scorcio alla definizione degli usi ritenuti inaccettabili, ci si rende conto della prominente attenzione alla dimensione etica: basti pensare al divieto di utilizzare la categorizzazione biometrica per estrapolare dati sensibili, a quello di utilizzare sistemi AI per il riconoscimento delle emozioni in luoghi di lavoro e in istituzioni educative, a quello di usare l’intelligenza artificiale per finalità di social scoring (come avviene in Cina, per esempio). I sistemi ritenuti ad alto rischio (come, per esempio, i sistemi AI per le campagne elettorali), invece, hanno l’obbligo di sottoporsi a una valutazione esterna sul loro impatto sui diritti umani fondamentali.
Proprio in Cina, così come in America, il quadro normativo è ancora frammentario: l’AI Act in tal senso vuol essere un modello legislativo anche a livello internazionale. Se, infatti, rispetto a Cina e USA l’Europa soffre di un innegabile ritardo tecnologico, la cosa è dovuta anche a una legislazione più stringente in materia di diritti e privacy. Diritto e tecnologia, con tutte le loro intersezioni in materia di etica, economia e politica, sono i due grandi campi in cui si gioca l’arena di un’efficace integrazione fra intelligenza artificiale, innovazione, mercato globale e società. Potremmo immaginare una moderna Dike, la dea greca della giustizia, ponderare con la sua bilancia il giusto peso da dare agli elementi del gioco: sta ad ogni Stato - o organizzazione internazionale – fare del proprio meglio per trovare il tanto agognato equilibrio.