I “killer robot”: la guerra che verrà

di:

robot

La tecnologia sta facendo passi da gigante in tutti i settori e in particolare le applicazioni dell’intelligenza artificiale aprono nuove prospettive, compreso quello militare. Qui esse stanno portando alla realizzazione di LAWS (Lethal Autonomous Weapons Systems), cioè sistemi d’arma autonomi in grado di individuare, selezionare e attaccare l’obiettivo senza l’azione umana.

I mass media li chiamano con un termine ad effetto i killer robot, facendo venire in mente i film hollywoodiani tipo Robocop o Terminator. Non siamo ancora a quel livello, ma almeno sperimentalmente si stanno avviando tantissimi progetti presso diversi stati tra cui USA, Russia, Cina, Francia, Inghilterra ed Israele. In particolare i governi degli Stati Uniti, Russia e Cina continuano ad investire fortemente su sviluppo LAWS coinvolgendo sia i dipartimenti di difesa, sia i produttori di armi, sia le università.

Quali sono i vantaggi?

Hanno tempi di reazione brevissimi, elevata precisione, non subiscono lo stress emotivo in situazioni di conflitto riducendo al massimo l’eventualità di colpire per errore dei civili (i cosiddetti “danni collaterali”), si possono attivare solo in caso di evidente e certo atto aggressivo. Non da ultimo, evitano la possibilità di perdita di vite umane da parte delle forze armate che le utilizzano: la guerra dei robot killer sarebbe uno scontro tra macchine sofisticate prodotte da industrie (in caso di parità) o tra uomini e macchine.

Scenari da fantascienza? Non tanto, dato che si stima che l’impatto economico dell’intelligenza artificiale (civile e militare) si aggirerà sui 13 trilioni (miliardi di miliardi) di dollari entro il 2030. E già si sta lavorando alacremente a sistemi d’arma ravvicinata o a corto raggio, aerei da combattimento senza equipaggio, munizioni guidate di precisione, veicoli terrestri e marini senza equipaggio, munizioni loitering (bighellone) che volano autonomamente finché non trovano l’obiettivo per poi attaccarlo. Il controllo militare praticamente diviene inesistente e l’arma autonoma fa tutto da sola.

La guerra che verrà

J.C. Rossi già nel novembre 2016, in uno studio intitolato La guerra che verrà: le armi autonome, parlava di «una tecnologia che allontanando l’uomo dalla programmazione e gestione di una macchina, lo sostituisce con un’intelligenza artificiale che eviti quei rischi che le pulsioni umane, invece, non escludono».

Tali armi autonome in realtà possono operare a diversi livelli: con un controllo umano prevalente (human in the loop), con un controllo umano limitato solo alle fasi iniziali (human on the loop), con l’assenza del controllo umano e con una totale “autonomia” (human out the loop).

È qui che numerosi scienziati ed esperti hanno ravvisato enormi pericoli: la perdita del controllo umano sulla macchina può essere estremamente dannosa. Come può una macchina, per quanto sofisticata, comprendere che l’avversario si vuole arrendere o che non è più in grado neppure di manifestare tale volontà, in quanto ferito, o che l’obiettivo attaccato è un civile presente nell’area?

L’intelligenza artificiale può sbagliare o essere tratta in inganno dall’avversario, mentre il processo di autoapprendimento basato sull’azione di diversi algoritmi (machine learning) può portare a risultati finali imprevedibili. Come si comporterà effettivamente in un vero campo di battaglia?

Dubbi e questioni aperte

Se l’intelligenza artificiale può essere altamente utile in campo civile, in ambito militare lascia senza risposta molti interrogativi. Se un civile si avvicina per sbaglio o per necessità all’area presidiata dai LAWS, essi saranno in grado di distinguere e di non attaccare? Un aereo costretto a un atterraggio d’emergenza, o una persona in fuga da una minaccia, potranno essere compresi nelle loro motivazioni da un LAWS? Il programmatore avrà saputo inserire modalità di riconoscimento?

E inoltre, se il LAWS sbaglia la colpa è del programmatore, del componente difettoso, della squadra di manutenzione, della ditta che lo ha installato, di chi lo ha acquistato selezionandolo senza le dovute cautele, dei politici che lo hanno voluto? La catena delle responsabilità diviene sempre più labile ed opaca.

Di fronte a una manifestazione di protesta con lancio di oggetti, come reagirà il LAWS? Interrogativi senza risposta, finché non sarà testato direttamente in uno di questi casi: l’errore, però, consisterà in vite umane spezzate. Di volta in volta gli ingegneri, i programmatori e i tecnici potranno correggere gli errori e migliorare l’arma autonoma, ma il costo non sarà trascurabile.

IRIAD: uno studio recente

Già nel 2012 numerosi ricercatori di robotica sottoscrivono appello per proibizione dei LAWS. Nel 2013 viene lanciata la campagna «Stop Killer Robots», che sensibilizza progressivamente governi e opinione pubblica internazionale sulla tematica, tanto che nel 2017 si costituisce un Gruppo di esperti governativi che nel 2019 raggiunge un accordo su un rapporto che include 11 principi-guida, condiviso nel novembre 2019 durante Conferenza CCW a Ginevra dagli Stati partecipanti. Ad oggi 30 Paesi hanno chiesto la messa al bando delle LAWS, ma il dibattito è in corso e un eventuale accordo globale appare ancora lontano.

Un recentissimo studio dell’Istituto di Ricerche Internazionali Archivio Disarmo, intitolato LAWS Lethal Autonomous Weapons Systems. La questione delle armi letali autonome e le possibili azioni italiane ed europee per un accordo internazionale in materia, mette in evidenza non solo il quadro della ricerca e le questioni giuridiche, ma anche l’attuale inaffidabilità di tali tecnologie, rilevando come i sistemi di intelligenza artificiale siano vulnerabili a tutti gli attacchi cibernetici che sfruttano vulnerabilità dei normali sistemi informatici. Appare dunque necessario che, prima di utilizzare operativamente fuori dai laboratori questi sistemi, si valutino adeguatamente le implicazioni di natura etica, sociale e di diritto internazionale.

  • Maurizio Simoncelli è vicepresidente e cofondatore dell’Istituto di ricerche internazionali Archivio disarmo – Iriad. Il suo testo è ripreso dal sito della Rivista Confronti, 23 luglio 2020.

 

Print Friendly, PDF & Email

Lascia un commento

Questo sito fa uso di cookies tecnici ed analitici, non di profilazione. Clicca per leggere l'informativa completa.

Questo sito utilizza esclusivamente cookie tecnici ed analitici con mascheratura dell'indirizzo IP del navigatore. L'utilizzo dei cookie è funzionale al fine di permettere i funzionamenti e fonire migliore esperienza di navigazione all'utente, garantendone la privacy. Non sono predisposti sul presente sito cookies di profilazione, nè di prima, né di terza parte. In ottemperanza del Regolamento Europeo 679/2016, altrimenti General Data Protection Regulation (GDPR), nonché delle disposizioni previste dal d. lgs. 196/2003 novellato dal d.lgs 101/2018, altrimenti "Codice privacy", con specifico riferimento all'articolo 122 del medesimo, citando poi il provvedimento dell'authority di garanzia, altrimenti autorità "Garante per la protezione dei dati personali", la quale con il pronunciamento "Linee guida cookie e altri strumenti di tracciamento del 10 giugno 2021 [9677876]" , specifica ulteriormente le modalità, i diritti degli interessati, i doveri dei titolari del trattamento e le best practice in materia, cliccando su "Accetto", in modo del tutto libero e consapevole, si perviene a conoscenza del fatto che su questo sito web è fatto utilizzo di cookie tecnici, strettamente necessari al funzionamento tecnico del sito, e di i cookie analytics, con mascharatura dell'indirizzo IP. Vedasi il succitato provvedimento al 7.2. I cookies hanno, come previsto per legge, una durata di permanenza sui dispositivi dei navigatori di 6 mesi, terminati i quali verrà reiterata segnalazione di utilizzo e richiesta di accettazione. Non sono previsti cookie wall, accettazioni con scrolling o altre modalità considerabili non corrette e non trasparenti.

Ho preso visione ed accetto