Forse per hybris, l’empia arroganza per cui un giorno verrà punito dagli dei, o forse solo per la sua innata propensione a capire e a superare i propri maestri, l’uomo ha cullato il sogno di costruire qualcosa che fosse capace di pensare fin dagli inizi dell’era moderna. Le basi di quest’idea, peraltro, possono essere rintracciate molto prima, contemporaneamente con la nascita del pensiero occidentale.
Perché è evidente: a Dartmouth del 1956 si poté parlare di qualcosa che emulasse una mente solo perché, in precedenza, erano state concepite delle teorie su cosa questa fosse e su come funzionasse, soprattutto in ambito di filosofia e metafisica.
Dovendo scegliere un inizio per la nostra storia partiremmo dunque da Platone, ovvero con il 400 a.C. circa. Per il discepolo di Socrate le idee erano contemporaneamente realtà ontologica (quello che esiste realmente) e fondamento gnoseologico (quello che ci consente di conoscere). La mente era in sostanza il tramite fra il mondo terreno e iperuranio e il processo cognitivo funzionava per associazione di un simulacro imperfetto, sensoriale con la corrispondente idea. La mente dunque (assimilabile all’anima razionale) era una sostanza perfetta, immutabile, eterna che aveva sede nel cervello ma era fuori da questo, per l’appunto proprio come un software che gira su un hardware ma non è influenzato da questo. Uno era il problema di fondo: se mente e corpo vivono addirittura su due mondi distinti come fanno a comunicare?
Circa negli stessi anni un’altra teoria sulla mente (e sulla realtà) arrivava a conclusioni completamente opposte: quella di Democrito. Per il discepolo di Leucippo tutto era materia, costituita da aggregati di atomi in perenne movimento casuale. Era il “semplice” movimento degli atomi a generare le funzioni mentali e quindi era l’organo celebrale ad avere il primato. Il che gettava le basi per tutto il successivo approccio deterministico sulla mente, dato il determinismo che veniva ipotizzato alla base delle leggi naturali. Un'altra idea che influenzerà molto chi in seguito punterà a un modello algoritmico delle funzioni mentali con gli esperimenti successivi che però hanno abbastanza messo in crisi questo approccio.
Anche Aristotele (382 a.C.-322 a.C.) si domandò cosa fosse la mente e si rispose rinunciando al dualismo platonico e ipotizzando un’origine non trascendente. Questa posizione aveva caratteristiche più coerenti con le attuali evidenze sperimentali sulle interazioni mente-corpo. Ma anch’essa non permetteva di chiudere il cerchio. Aristotele infatti, per risolvere l’aporia di un mondo materiale dominato dalle leggi di natura e di un uomo che immaginava libero (quanto di fare del bene che del male) fu costretto ipotizzare una mente di origine fisica sì, ma con “proprie specificità”, con tutta l’ambiguità e le contraddizioni che ciò derivavano.
Svariati secoli più tardi, da Cartesio (1596-1650) ripartì dal dualismo platonico ricavandone una posizione ancor oggi, decisamente diffusa in ambito di comunità scientifica. Il dualismo mente/corpo era impostato come contrapposizione fra res cogitans e res extensa. Era proprio la diversa natura della mente rispetto al mondo fisico che le permetteva di essere libera in un universo rigidamente meccanicista. Un’interpretazione che, comunque, ha attirato su di sé svariate critiche proprio per il suo errore di fondo: sottrarre all’ambito scientifico ciò che più di ogni altra cosa serviva per costruire tale ambito: il pensiero razionale.
Fra le posizioni paradigmatiche è utile includere anche quella di Spinoza (1632-1677) che all’opposto ripartiva dal filone democriteo. Per il filosofo olandese la mente era di nuovo il mero risultato dei processi fisici celebrali. Il problema di questa visione era che, essendo considerato il mondo, nel momento del trionfo della meccanica newtoniana, rigidamente deterministico tale doveva essere anche il funzionamento della mente. Il libero arbitrio per Spinoza, quindi, non esisteva e l’unica libertà possibile era quella di conoscere la propria ... non libertà. Anche qui un modo per cercare di far quadrare le cose in parte arrampicandosi sugli specchi.
Concluderemo questa breve rassegna sulla mente arrivando quasi ai nostri giorni con una posizione di carattere molto più scientifico anche se ancora lontana dall’essere una teoria scientifica della mente: quella del Premio Nobel americano Gerald Edelman. L’idea era che il cervello avesse costituenti elementari (neuroni e gruppi di neuroni) regolati da leggi fisiche sostanzialmente deterministiche essendo però la mente una proprietà emergente e come tale a queste solo parzialmente sottoposta: un po’ come il colore che è caratteristico di atomi o molecole ma non delle loro parti (protoni, neutroni, elettroni) Un approccio che risultava coinvolgente per molti aspetti anche se non spiegava il perché dell’insorgere di una proprietà tanto importante.
Abbiamo visto finora alcune delle principali teorie sulla mente. Queste da sole, però, non sarebbero bastate per poter pensare alla realizzazione di un cervello artificiale. Serviva un secondo elemento: un’evoluzione di macchine concepite per emulare, se non nell’interezza e nella struttura almeno in qualche limitata funzione, il pensiero umano. E questo è il secondo percorso che illustreremo qui di seguito.
Il primo a concepire macchine per svolgere qualcosa di diverso dall’aiuto dell’uomo nella guerra o nei lavori manuali fu il matematico Blasie Pascal (1623-1662) che costruì circa 50 esemplari di Pascaline”, basate su serie di ruote dentate interconnesse. Pascal, peraltro, non pensò mai a macchine che potessero andare oltre le calcolatrici che aveva inventato per aiutare nel suo lavoro il padre funzionario alle imposte; probabilmente comunque è lecito ipotizzare che sarebbe stato scettico di fronte a tale ipotesi. Anche per il suo celebre dualismo fra esprit de géometrie (razionalità, per così dire semplice, alla base delle scienze) ed esprit de finesse (capacità di intuire il trascendente e di afferrare il senso delle cose), con il secondo prerogativa esclusiva dell’uomo come insieme unico di un corpo e di un’anima (“ Il cuore ha le sue ragioni, che la ragione non conosce” diceva).
Una macchina decisamente più performante della Pascalina fu quella inventata da Charles Babbage (1791-1881) che era in grado di realizzare tabulati di funzioni polinomiali. Anche in questo caso il meccanismo fondamentale era costituito da ruote che giravano e propagavano i loro valori a ruote successive. La sua importanza era duplice: da un lato costituiva un ulteriore avvicinamento alle logiche e alle architetture dell’informatica moderna (propagazione dei riporti, rappresentazione dei numeri negativi tramite complementi, ragionamento algoritmico e così via). Dall’altro fu inventata con il preciso scopo di ottenere migliori risultati di quelli umani, ipotizzando, quindi, che, quantomeno per un compito preciso, una macchina potesse esser migliore dell’uomo.
Babbage tentò di costruire anche macchine analitiche ancora più complesse, capaci di manipolare simboli e funzionare sulla base di comandi codificati in schede perforate. Il tentativo non fu coronato da successo ma dimostrava che il clima in cui Gottfried Leibniz (1646-1716) pensava all’ars combinatoria (linguaggio e pensiero come calcoli) era prossimo a determinare un ulteriore salto di paradigma. La figura del matematico e filosofo tedesco in termini di IA, poi, è importante anche perché, attraverso la sua rappresentazione del pensiero, pose sul banco l’idea che delle macchine potessero avere degli stati cognitivi propri.
Il nostro percorso termina con due figure che quasi tutti hanno considerato i padri della moderna informatica: Alan Turing (1912-1954) e John von Neumann (1903-1957). Il primo è conosciuto principalmente per i risultati raggiunti in termini di computabilità e per il suo risultato secondo cui se un problema è codificabile con un algoritmo allora esiste un’apposita macchina (detta appunto di Turing, MDT) in grado di risolverlo. La MDT risultava ai tempi in cui fu introdotta un puro esperimento concettuale ma conteneva tutti gli elementi più significativi dei computer moderni: input, output, elaborazione interna sequenziale e così via. Turing pensava a tali macchine come a degli “impiegati diligenti”, capaci di svolgere il loro lavoro meccanicamente senza sbavature ma anche senza particolari voli pindarici. Il matematico inglese, però, fu anche il primo a pensare esplicitamente all’eventualità che queste macchine potessero un giorno pensare. Elaborò, infatti, il famoso test che porta il suo nome e che costituisce a tutt’oggi uno dei riferimenti fondamentali della moderna Intelligenza Artificiale. Secondo questo una macchina che riusciva a “ingannare” un uomo riguardo alla sua natura umana poteva essere definita intelligente. Visione che apriva la strada a tutto il futuro filone della futura IA debole.
Il contributo di von Neumann viene ricordato a principalmente a proposito dell’architettura dei moderni computer che ha effettivamente, ancor oggi, molto di quanto prospettato dal matematico americano (ungherese di nascita).
Una cosa però è probabilmente ancor più importante in termini di IA: egli fu il primo a pensare a programmi che potessero autonomamente duplicarsi esattamente come succede agli organismi viventi più semplici (cellule, batteri). Questo non implica solo che von Neumann fu il padre dei moderni computer virus ma che lo fu anche dell’idea, fondamentale in ambito di IA forte, che le macchine potrebbero, a un certo punto detto oggi “di singolarità”, cominciare a determinare da sole il loro sviluppo.
Così eccoci alla nascita dell’Intelligenza Artificiale vera e propria. Siamo nel 1956 e a Dartmouth nel New Hampshire (USA) viene svolto un seminario estremamente particolare, convocato dal matematico americano John McCarthy. Vi parteciparono scienziati come Claude Shannon e Marvin Minsky, Herbert Simon, economista e futuro premio Nobel, informatici come Allen Newell e altri.
L’idea che si sarebbe arrivati di lì a poco a vere e proprie macchine pensanti sembrava attuabile anche se a circa cinquant’anni di distanza ciò non è ancora accaduto.
Con quella data è partito comunque il percorso di evoluzione dell’IA: dai parser ai sistemi esperti ai sistemi black box. Il resto è storia di oggi, con i tentativi di simulazione e emulazione dell’intero sistema nervoso di esseri viventi (Whole Brain Emulation) e con le istanze più radicali di IA come mezzo per trascendere i limiti dell’essere umano (Transumanesimo e Artificial General Intelligence).
Bibliografia
[0] Pietro
Greco, “Einstein e il ciabattino, Dizionario asimmetrico dei concetti
scientifici di interesse filosofico”, Editori Riuniti, 2002
[1] Paul
Churchland, “Il motore della ragione la sede dell’anima”, Il Saggiatore,
Milano, 1998
[3] Donald Gillies, “Intelligenza
artificiale e metodo scientifico”, Cortina, 1998
[4] Ray Kurzweil, “La singolarità è vicina”, Apogeo, 2008