Armi autonome letali: quando Terminator diventa realtà

IMG_6313

“Ero l’uomo giusto al posto giusto al momento giusto”. Queste le parole di Stanislav Petrov, un uomo del quale fino alla sua morte (avvenuta lo scorso maggio) si  ignoravano la storia e le gesta. Stanislav Petrov era un ex tenente colonnello dell’Armata Rossa durante gli anni della guerra fredda. Un uomo apparentemente come tutti gli altri, ma che la notte del 26 settembre 1983 evitò una catastrofe nucleare. Quella notte, per un caso del destino, si trovò a fare da guardia al sistema di sorveglianza che controllava a distanza i silos americani contenenti i missili intercontinentali. Quella stessa notte Petrov non si fidò dei segnali inviati dai radar intercettori secondo cui gli Stati Uniti avevano lanciato decine di missili termonucleari contro l’Unione Sovietica. Capì che si trattava di un errore di sistema e per questo si rifiutò di seguire il rigido protocollo, sventando il pericolo di una guerra nucleare. In seguito giunse la conferma che si trattava di un’avaria.

Da allora, senza dubbio, la tecnologia militare, la robotica e l’intelligenza artificiale hanno fatto enormi progressi e i dispositivi commettono sempre meno errori. Tuttavia, siamo sicuri che le cosiddette armi autonome letali, i “robot killer”, come vengono comunemente soprannominati, saranno sempre meno fallibili e in grado di selezionare il loro bersaglio solo sulla base di determinate regole con cui sono stati programmati, senza alcun tipo di controllo umano?

Dopo la polvere da sparo e l’arma nucleare, i rapidi progressi dell’intelligenza artificiale fanno parte di quella che viene ormai definita la terza grande rivoluzione negli affari militari e in generale nel modo di fare la guerra. I killer robot sono destinati a dominare il prossimo scenario militare, sostituendo gli attuali dispositivi, alcuni dei quali già senza pilota, in tutte le operazioni militari e nei diversi campi di battaglia. Grazie ad algoritmi e programmi sempre più sofisticati queste macchine saranno in grado di selezionare in modo autonomo il loro bersaglio per poi decidere se attaccare o meno. E tutto senza l’intervento umano.

Certo, in un futuro sempre più vicino, i nuovi dispositivi autonomi potrebbero fornire un vantaggio militare e strategico non indifferente, non solo perché non soggetti a stress, fatica e alle diverse condizioni atmosferiche, ma anche per la rapidità d’azione e reazione ad eventuali attacchi nemici. E non finisce qui. L’uso di robot killer ridurrebbe il numero di perdite umane, almeno tra i soldati, rendendo quindi la guerra più accettabile, se così si può dire, agli occhi dell’opinione pubblica. Insomma, sarebbe ancora più facile risolvere qualsiasi problema a suon di proiettili e cannoni. Inoltre, l’assenza di sentimenti quali rabbia, dolore e paura risulterebbe militarmente e strategicamente funzionale, in quanto permetterebbe di eseguire persino le operazioni più “sporche” con un’indifferenza e freddezza d’azione letteralmente “disumana”.

Mi chiedo, però, se i presunti “vantaggi e benefici” potranno veramente superare gli enormi pericoli derivanti dal loro utilizzo: se un robot killer sarà sempre capace di distinguere tra un combattente e un civile, o tra un soldato ferito che resiste e uno che si arrende, senza quindi violare la Convenzione di Ginevra e i suoi protocolli, così come le norme del diritto internazionale umanitario e le regole di discriminazione e proporzionalità; se  questi soldati del  futuro saranno in grado di gestire tutti gli imprevisti del caso senza alcun tipo d’intervento umano, senza nessun “Petrov” a decidere se si tratti o meno di un errore.

In tutte le operazioni di guerra, infatti, i soldati non sono addestrati solo per uccidere ma devono essere in grado di valutare anche gli effetti di un eventuale attacco e le alternative per raggiungere lo stesso risultato con metodi meno distruttivi e violenti. I soldati, inoltre, devono anche tenere conto dell’intrinseca imprevedibilità dei diversi e molteplici campi di battaglia. Questo tipo di valutazioni richiede solitamente un giudizio e, aggiungerei, una sensibilità propriamente umani che i robot killer, con ogni probabilità, non possono avere, essendo privi di qualsiasi capacità di intuizione e forma di pensiero, dotati solo di algoritmi e insiemi di regole da seguire, ed eseguire, alla lettera.  

Direttamente collegata è la questione relativa alla difficoltà nell’identificare un unico e vero responsabile dei crimini che potrebbero essere commessi contro innocenti e indifesi. I robot sono di solito creati e programmati da una squadra di programmatori, ciascuno dei quali ignora il programma nella sua interezza. E’ il problema cruciale della responsabilità: impossibile e inutile accusare un algoritmo di crimini contro l’umanità. Non dimentichiamo, inoltre, che restano pur sempre delle macchine soggette ad avarie, errori, (come nel caso dei radar intercettori russi nel 1983), ma ancora peggio che possono essere hackerate. L’impossibilità di puntare il dito contro un unico colpevole rappresenterebbe, quindi, un ottimo incentivo sia per i regimi repressivi che per i gruppi terroristici ad appropriarsi e ad utilizzare questo tipo di armi a proprio beneficio e vantaggio. Un rischio rafforzato, tra l’altro, dalla possibilità di una loro proliferazione incontrollata.

Infine, la mancanza di qualsiasi tipo di emozione, se a livello strategico-militare costituisce un vantaggio, in realtà è estremamente pericolosa in quanto sentimenti, quali ad esempio la compassione, spesso inibiscono nel soldato il desiderio o la tentazione di colpire ed uccidere il nemico senza alcun motivo o necessità. Si finirebbe per assistere in maniera passiva ad una violenza senza limiti, a terribili atrocità, stravolgendo completamente anche l’ultimo barlume di regole di ingaggio ed etica militare, per non dire la stessa umanità. Svanirebbe il principio secondo cui l’uccisione del nemico è intrinsecamente legata al rischio di essere uccisi e quindi alla necessità di difendersi.

Contro la corsa verso i soldati robot si è schierato anche Elon Musk (Tesla) insieme ad altri 116 fondatori di aziende di robotica e intelligenza artificiale in un appello rivolto all’Onu, al grido di “fermate i soldati robot, sono un pericolo per l’umanità”. Lo stesso Presidente della Federazione Russa, Vladimir Putin, rivolgendosi a degli studenti in occasione dell’inizio dell’anno scolastico lo scorso settembre, ha descritto l’intelligenza artificiale come “il futuro di tutta l’umanità”, caratterizzato da grandi opportunità, ma anche da minacce difficili da prevedere , affermando che la nazione leader in questo campo dominerà il mondo intero.

Se è vero che rendere la guerra, come oggi la conosciamo, obsoleta risolverebbe sicuramente molti problemi, siamo sicuri che non ne creerebbe altrettanti e forse anche di peggiori? Nel frattempo, al Parlamento europeo stiamo lavorando per evitare che Terminator da fantascienza diventi realtà. Nella proposta di regolamento che istituisce il programma europeo di sviluppo del settore industriale della difesa ci stiamo battendo affinché siano esclusi tutti i sistemi di armi autonome letali che operano senza alcuna supervisione umana. In quanto rappresentanti dei nostri cittadini, abbiamo il dovere e la responsabilità di tutelare e preservare la loro sicurezza, facendo il possibile per scongiurare il rischio di scenari fantascientifici e apocalittici, impedendo che dei soldati-robot possano decidere autonomamente su chi scaricare il loro carico di fuoco. Non possiamo ridurre l’essere umano a mero oggetto, anzi a spettatore passivo della propria sorte e di quella altrui. Uno spettatore destinato ad essere ucciso (o meno) da quelle macchine figlie della sua stessa intelligenza.

 

Check Also

copertina_2018-09-13

Laboratori Territoriali in MoVimento 2018 LAB#1

LABORATORI PER LA SCRITTURA di un PROGETTO EUROPEO Ciclo di incontri finalizzati a comprendere tecniche ...