Immagine di Pavel Danilyuk.
Domenica scorsa il Guardian ha diffuso il video di un incidente avvenuto durante il Moscow Chess Open, famoso torneo di scacchi in Russia. Nel video, inizialmente condiviso sul canale Telegram Baza, si vede un braccio robotico posto al centro di una pedana mentre gioca contemporaneamente tre partite dimostrative contro tre bambini, tutti sotto i nove anni. A un certo punto, il robot blocca sulla scacchiera la mano di uno dei suoi tre avversari mentre questo cerca di spostare una pedina. Il bambino tira la mano indietro, ma il robot non lascia la presa e tre adulti irrompono sulla scena per soccorrerlo, liberando finalmente la mano.
L’incidente causerà la frattura del dito del bambino, che però, hanno rassicurato gli organizzatori del torneo, è tornato a competere il giorno seguente con il dito ingessato, vincendo diverse partite.
Per cercare ricostruzioni meticolose di quello che è successo, più che le grandi testate giornalistiche, sono utili i siti tematici e i blog di scacchisti esperti. In italiano, il blog unoscacchista.com ha ricostruito l’incidente in tutti i dettagli, svelando anche l’identità del robot. Si tratta del cosiddetto “Chess Terminator”, costruito dallo scacchista russo Konstantin Kosteniuk, famoso per essere il padre di Alexandra Kosteniuk, 38 anni, campionessa mondiale di scacchi dal 2010 al 2015 e oggi campionessa mondiale in carica di scacchi rapidi.
Chess Terminator viene utilizzato ormai da 15 anni, più che altro per scopi dimostrativi durante tornei nazionali e internazionali. Nel 2012, per esempio, si è scontrato con un braccio robotico tedesco, il KUKA Monster, vincendo. Nel 2018 ha giocato in simultanea tre partite contro altrettanti bambini durante il campionato mondiale di scacchi rapidi.
In queste occasioni lo scopo non era tanto quello di mostrare le capacità scacchistiche del robot, per quello bastano semplici computer e partite giocate su schermo, ma piuttosto la sua abilità nell’eseguire le mosse con precisione e delicatezza. La sequenza delle azioni nelle due situazioni di gioco possibili, il robot che deve solo muovere un suo pezzo oppure il robot che deve prima mangiare un pezzo della persona avversaria e poi spostare il proprio, si vedono bene nel video qui sotto.
Quello che sembra essere accaduto a Mosca il 19 luglio è che il robot parte per eseguire la seguente mossa: mangiare la regina del bambino in posizione d1 con il proprio alfiere, posto nella posizione g4. Per farlo il robot prima preleva la donna da d1 e la depone nel cestino accanto alla scacchiera e poi preleva l’alfiere da g4 e si avvia per posizionarlo in d1. Nel frattempo, però, il bambino, impaziente, già sposta la sua torre da a1 a d1 anticipando la mossa che avrebbe eseguito per mangiare l’alfiere del robot con la sua torre. Quando il braccio arriva con l'alfiere “in mano” sulla casella d1 e la trova nuovamente occupata da un pezzo dell’avversario ignora l’incongruenza e spinge il suo pezzo verso la scacchiera, schiacciando la mano del bambino che indugiava nel depositare la torre. La mano del bambino si trova quindi bloccata tra l’alfiere spinto dal robot e la sua torre, il robot sembra bloccarsi in quella posizione e continua a esercitare pressione finché non intervengono gli adulti.
Cosa è andato storto? «Si tratta di uso improprio della tecnologia», risponde Pericle Salvini, ricercatore presso il Responsible Technology Institute del dipartimento di Computer Science dell’Università di Oxford. «Non conosco precisamente il tipo di braccio robotico utilizzato nel torneo, ma dal video sembra un robot industriale di vecchia generazione, quelli progettati per operare dentro gabbie a cui i lavoratori umani non hanno accesso», spiega.
«Sarebbe stato molto più sicuro utilizzare i cosiddetti cobots, robot sempre nati per utilizzo industriale ma per lavorare spalla a spalla con le persone. Questo tipo di robot sono detti compliant, perché cercano di assecondare i movimenti e le sollecitazioni meccaniche che arrivano dall’esterno». Salvini spiega che esistono diverse aziende europee che progettano e costruiscono robot del genere, come la tedesca KUKA o la svizzera ABB Robotics. «Questi robot si fermano al passaggio ravvicinato delle persone e ne accompagnano i movimenti se malauguratamente dovesse esserci un contatto fisico». Nel video dell’incidente non si vede in effetti alcuna compliance del braccio robotico, che né tenta di evitare il contatto, né si ritrae quando questo è avvenuto.
«Non sembra esserci stata alcuna attenzione alla sicurezza, un fatto estremamente grave in un contesto in cui sono coinvolti dei bambini, anche perché non si può pretendere che rispettino le regole di interazione con il robot come ci si aspetterebbe dagli adulti», commenta ancora Salvini. «Si doveva prevedere almeno un pulsante adiacente alle scacchiere che permettesse ai bambini di bloccare il braccio. Invece, sono dovuti intervenire degli adulti dall’esterno della pedana».
Salvini spiega che in Europa esistono degli standard di sicurezza molto severi per i robot utilizzati per compiti di cura, e che dunque agiscono a stretto contatto con le persone, a volte persone vulnerabili, come anziani, bambini o malati. Questi standard devono essere rispettati anche dai robot che consegnano il cibo a domicilio o che coprono l’ultimo miglio nella consegna delle merci. Gli standard in questione sono stati stabiliti dall’Institute of Electrical and Electronics Engineers (IEEE) nel 2014.
Salvini fa parte del progetto RoboTIPS, coordinato da Marina Jirotka dell’Università di Oxford e Alan Winfield, direttore del Bristol Robotics Lab presso la University of the West of England.
RoboTIPS punta a tracciare le linee guida per le procedure di investigazione riguardo gli incidenti che coinvolgono i robot sociali. «Non esistono regole a riguardo, noi stiamo cercando di partire dalle questioni di base. Chi dovrebbe eseguire l’indagine? Una persona incaricata da un’istituzione pubblica o privata? Come si fa a stabilire il grado di responsabilità del robot in un incidente?».
La proposta di RoboTIPS parte da una scatola nera cosiddetta “etica”. «Ogni robot dovrebbe essere dotato di una scatola nera che raccolga i dati relativi all’interazione del robot con l’ambiente e con le persone che lo occupano», dice Salvini. È importante sottolineare che questa scatola nera non dà alcuna istruzione al robot in tempo reale sulla base di qualche insieme di principi etici. Insomma, non è una coscienza robotica.
Ma di chi sono, o dovrebbero essere, questi dati? «Per ora, sono solo le aziende costruttrici che hanno accesso ai dati raccolti dalle scatole nere dei robot, quando questi ne sono equipaggiati. E sono loro a scegliere se e quali condividere. Per esempio, questo accade per i robot che assistono i chirurghi».
Ad aprile, i ricercatori di RoboTIPS hanno organizzato una simulazione di incidente e della successiva indagine. L’incidente simulato coinvolgeva una persona anziana assistita da un robot Pepper nella sua casa. Alan Winfield, uno dei due coordinatori di RoboTIPS, descrive così sul suo blog la scena dell’incidente:
Immaginate che la vostra anziana madre o nonna abbia un robot assistente che la aiuti a vivere in modo indipendente a casa. Il robot è in grado di andare a prenderle da bere, di ricordarle di prendere le medicine e di tenersi in contatto con i familiari. Poi, un pomeriggio, ricevete una telefonata da un vicino di casa che vede la nonna accasciata sul pavimento. Quando i paramedici arrivano trovano il robot che si aggira nella stanza apparentemente senza scopo. Una delle sue funzioni è quella di chiamare i soccorsi se la nonna smette di muoversi, ma sembra che il robot non lo abbia fatto.
La simulazione prevedeva la presenza di due investigatori che hanno intervistato tutte le persone presenti prima e dopo sul luogo dell’incidente. Dunque, non solo la vittima e il vicino che ha chiamato i soccorsi, ma anche il tecnico che aveva pulito il robot quella mattina, il paramedico intervenuto e la manager della residenza in cui si trova l’appartamento della vittima. Gli investigatori hanno anche analizzato la scena dell’incidente e i dati della scatola nera del robot e hanno concluso che il robot non aveva chiamato i soccorsi perché il sensore di visione era offuscato a causa di una quantità eccessiva di detergente usata dall’addetto alla manutenzione quella mattina. Insomma, Pepper non aveva visto che l’anziana signora era a terra.
RoboTIPS non si limiterà solo a simulare casi di incidenti fisici, ma considererà anche casi in cui i danni subiti dalle persone che interagiscono con i robot sono di natura psicologica o sociale. I danni psicologici includono la dipendenza, l'eccessiva fiducia o l'inganno, mentre i danni sociali includono la violazione della privacy. «Le nostre simulazioni riguarderanno robot che svolgono compiti di cura, ma ritengo che possano essere rilevanti anche in ambito industriale, in cui i robot sono sempre meno degli strumenti isolati e stanno diventando sempre di più dei veri e propri collaboratori degli umani», conclude Salvini.