fbpx L'etica del soldato robot | Scienza in rete

L'etica del soldato robot

Primary tabs

Tempo di lettura: 3 mins


Robot Talon in azione

L'uso di sistemi robotici in ambito bellico è una realtà consolidata. Il Packbot è un sistema robotico dotato di telecamera e manipolatori, progettato per individuare e far brillare mine o proiettili inesplosi.

Il Talon SWORDS è un sistema robotico cingolato equipaggiabile con mitragliatrici e piattaforme varie per il lancio di granate e missili anticarro. Il Talon è in grado di navigare in modo autonomo nell'ambiente con l'ausilio di un GPS, ma le armi di bordo non sono controllate autonomamente dal sistema robotico e vengono azionate in remoto da un soldato.

Entrambi i sistemi sono stati ampiamente impiegati in Iraq e Afghanistan dall'esercito statunitense. Sono operativi anche alcuni sistemi robotici in grado di prendere la decisione di sparare e di agire di conseguenza. E' il caso della sentinella robotica SGR-A1, dotata di una mitragliatrice e di un sistema di visione in grado di individuare una persona anche in condizioni di illuminazione notturna. Questo sistema viene utilizzato dall'esercito sudcoreano per sorvegliare la zona demilitarizzata al confine tra le due Coree, alla quale si suppone che possano accedere solo dei nemici. L'ipotesi che guida il sistema di controllo di SGR-A1 – e cioè che ogni oggetto animato inquadrato nel mirino sia un nemico – non è, in generale, un'ipotesi valida sui campi di battaglia. E' infatti possibile inquadrare nel mirino soldati del proprio esercito, civili inermi, feriti dell'esercito nemico che non sono in grado di nuocere, avversari che hanno già espresso la volontà di arrendersi.

Eppure sono in corso numerosi progetti di ricerca per lo sviluppo di soldati robotici autonomi, e cioè in grado di controllare e usare per uccidere delle armi senza essere soggetti alla supervisione diretta di un essere umano.

Questi sistemi saranno in grado di distinguere tra un nemico e un civile inerme? Più in generale, i soldati robot saranno dotati delle capacità di discriminazione richieste a un essere umano perché possa qualificarsi come un combattente e non come un massacratore? Non si può evitare di affrontare questo problema se vogliamo che un soldato robot autonomo sia in grado di rispettare prescrizioni morali giustificabili in base a varie dottrine etiche o di comportarsi in conformità con le regole militari d'ingaggio e con le prescrizioni dello jus in bello codificate attraverso convenzione di Ginevra e altri protocolli internazionali.

Alcuni ricercatori nel settore della robotica hanno recentemente espresso – anche attraverso i giornali (International Herald Tribune, 26/11/2008) – la convinzione che i soldati robotici autonomi saranno, e in alcuni casi già sono, in grado di rispettare le prescrizioni morali e giuridiche del caso altrettanto bene o anche meglio di un essere umano. Per avvalorare questo punto di vista sono stati citati i casi, anche recenti, di massacri, torture, e altre violazioni gravi dei codici di condotta militare ad opera di soldati di diversi eserciti.

Troppo facile. Un confronto serio deve essere impostato con soldati il cui comportamento non sia così ovviamente censurabile. E un tale confronto richiede di individuare le capacità percettive e cognitive necessarie a discriminare tra avversari, amici e astanti negli scenari bellici più vari e meno rigidamente stereotipati. I sistemi robotici attuali non possono, in generale, competere con un essere umano in relazione a questo tipo di capacità percettive.

Nell'opinione di chi scrive, dotare un robot autonomo delle capacità percettive richieste a un soldato per rispettare regole d'ingaggio e jus in bello equivale, in buona sostanza, a risolvere il problema dell'intelligenza artificiale tout court. Ma in ogni caso la questione richiede una riflessione etica più approfondita alla luce degli attuali sviluppi delle tecnologie robotiche, senza tralasciare un'analisi degli interessi sociali, politici ed economici in campo.


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo

Generazione ansiosa perché troppo online?

bambini e bambine con smartphone in mano

La Generazione ansiosa. Come i social hanno rovinato i nostri figli (Rizzoli, 2024), di Jonathan Haidt, è un saggio dal titolo esplicativo. Dedicato alla Gen Z, la prima ad aver sperimentato pubertà e adolescenza completamente sullo smartphone, indaga su una solida base scientifica i danni che questi strumenti possono portare a ragazzi e ragazze. Ma sul tema altre voci si sono espresse con pareri discordi.

TikTok e Instagram sono sempre più popolati da persone giovanissime, questo è ormai un dato di fatto. Sebbene la legge Children’s Online Privacy Protection Act (COPPA) del 1998 stabilisca i tredici anni come età minima per accettare le condizioni delle aziende, fornire i propri dati e creare un account personale, risulta comunque molto semplice eludere questi controlli, poiché non è prevista alcuna verifica effettiva.