Oltre il test di Turing: quando l'intelligenza artificiale confonde i nostri criteri

Uno studio recente di Stanford ha rivelato che GPT-4.5 è stato identificato come umano dal 73% dei partecipanti durante il test di Turing, superando addirittura gli esseri umani stessi. Ma questo successo ci porta a una domanda fondamentale: è ancora valido questo test come misura dell'intelligenza artificiale? Forse è tempo di sviluppare nuovi metodi per valutare le macchine, poiché simulare un comportamento intelligente non significa necessariamente "pensare" come un essere umano. Nell'immagine, l'automa trombettista di Friedrich Kaufmann, costruito nel 1818.
Nel 2025, settantacinque anni dopo la sua formulazione, il test di Turing viene superato con sorprendente facilità da modelli linguistici come GPT-4.5, spesso scambiati per esseri umani più degli esseri umani stessi. Ma cosa ci dice davvero questo risultato? Forse non tanto sulla natura delle macchine, quanto su quella dei criteri che adottiamo per definirle “intelligenti”. Quando una simulazione diventa indistinguibile da un comportamento reale, siamo di fronte a una prova di pensiero… o a uno specchio che riflette i limiti delle nostre definizioni?