Invasione russa dell’Ucraina assistiamo al debutto delle armi autonome

armi autonome

La guerra in Ucraina sarà ricordata per molti motivi. E tra questi rischia di esserci anche il debutto ufficiale delle armi autonome. Li chiamano droni kamikaze, e sono sistemi d’arma modernissimi che uniscono le manovrabilità di un drone alle capacità distruttive di un missile. In grado di volare autopilotati fino a raggiungere la zona d’ingaggio, e se necessario, anche di identificare e colpire il bersaglio senza input da parte di un operatore umano. 

È il caso del drone russo Kub-Bla abbattuto dalle forze ucraine nelle scorse settimane. Così come dei 100 Switchblade che gli americani hanno promesso di inviare a breve alle forze di Kyiv. Dispositivi bellici che si muovono in una zona grigia che separa gli armamenti intelligenti dai cosiddetti robot killer, progettati per uccidere per conto proprio, senza neanche più l’assistenza degli esseri umani. E su cui da anni si chiede – senza successo – una moratoria internazionale.


Guerra Ucraina-Russia, ecco come identificare le fake news


Loitering munition

In gergo tecnico, i droni kamikaze sono conosciuti come loitering munution (o munizioni circuitate). La loro invenzione si deve agli israeliani, che – pare – avrebbero intuito le potenzialità dei veicoli pilotati da remoto durante la guerra del Libano, nel 1982. Sviluppando poi il concetto in quello di munizioni circuitate tra la fine degli anni ’80 e i primi anni ’90: piccoli missili che possono essere pilotati da remoto, per essere poi fatti esplodere sull’obbiettivo, rendendo molto più difficile l’utilizzo di sistemi antirazzo e altre contromisure. Da allora, ovviamente, gli sviluppi tecnologici sono stati notevoli. Oggi hanno la forma e la manovrabilità di un drone, si controllano facilmente da remoto, anche con un semplice tablet, costano poco (anche poche migliaia di dollari), e sono estremamente efficienti.

Con gli sviluppi dell’intelligenza artificiale, inoltre, sono diventati sempre più autonomi. Quasi tutti i modelli recenti sono in grado di decollare, manovrare e atterrare senza l’assistenza di un essere umano. I loro sensori permettono di identificare automaticamente l’obbiettivo grazie al deep learning e all’intelligenza artificiale, e di compiere le manovre necessarie per colpirlo. Di norma a verificare il loro operato è un operatore umano, che dà il via libera per l’attacco, e può revocare il comando anche all’ultimo secondo in caso di problemi. 

Alcuni droni kamikaze però possono fare tutto da soli. È il caso dei Kub-Bla sviluppati dal gruppo Kalashnikov per l’esercito russo, capaci di identificare il bersaglio anche solo a partire da una foto, così come il Kargu-2 turco, che sembra essere stato utilizzato per la prima volta in modalità autonoma nel 2020 in Libia. In entrambi i casi, Russia e Turchia hanno negato di aver mai utilizzato i loro droni in modalità autonoma, ma ovviamente è impossibile confermare o smentire cosa sia accaduto realmente sul campo di battaglia.

Simile il discorso anche per gli Switchblade. Il governo americano non li reputa tecnicamente armamenti autonomi, perché il loro utilizzo prevede la supervisione di un operatore umano che può interrompere l’attacco in qualunque momento. Ma sono comunque in grado di scegliere e colpire il proprio bersaglio automaticamente. In effetti – come dimostra il caso americano – uno dei problemi con questo nuovo tipo di armamento ibrido è che al momento non esiste una definizione ufficiale univoca di arma autonoma, così come manca un accordo a livello internazionale sul loro utilizzo.

Una moratoria internazionale

Nonostante gli eserciti di tutto il mondo continuino ad aumentare le scorte di loitering munition e droni autonomi, il dibattito pubblico sul loro utilizzo negli ultimi anni è più che mai acceso. Un sondaggio Ipsos del 2019 realizzato in 26 paesi, per esempio, ha rivelato che il 61% degli adulti intervistati è contrario all’utilizzo di armamenti autonomi. Nel 2015, centinaia di esperti di intelligenza artificiale (tra cui spiccano i nomi di Elon MuskStephen HawkingSteve Wozniak e Noam Chomskyhanno firmato un appello per chiedere la messa al bando degli armamenti autonomi a livello globale. E nel 2017 è stata lanciata la campagna Stop the killer robots, per portare alle Nazioni Unite la richiesta di una moratoria sull’utilizzo di armi autonome.

Alla fine, la questione è stata discussa lo scorso dicembre durante la Convention on Certain Conventional Weapons delle Nazioni Unite, senza arrivare purtroppo a una decisione definitivaStati UnitiRussiaIsraeleIndia e molte altre nazioni si sono infatti opposte alla messa al bando delle armi autonome, rimandando i negoziati a data da destinarsi. Gli Stati Uniti in particolare propongono di regolare la questione con un meno vincolante codice di condotta volontario. Una soluzione che difficilmente rappresenterebbe un deterrente concreto allo sviluppo di queste tecnologie, o al loro utilizzo, magari celato dietro i problemi già accennati di definizione di armamento autonomo, e all’impossibilità di stabilire concretamente se e quando droni e missili intelligenti sono utilizzati in modalità autonoma.

Perché tante preoccupazioni?

Nel caso in cui le armi autonome si diffondessero, i pericoli all’orizzonte sarebbero di vario tipo. Innanzitutto tecnicile intelligenze artificiali possono sbagliare, e a farne le spese, in questo caso, sarebbero degli esseri umani. Le AI, inoltre, non hanno modo di capire se stanno commettendo un errore, quanto meno non nel modo in cui lo può capire un essere umano: se un glitch o un errore di machine learning facesse scambiare un bambino per un militare nemico, un’intera flotta di droni autonomi potrebbe continuare a sbagliare bersaglio per un periodo di tempo indeterminato, prima che qualcuno riesca a porre rimedio all’errore. 

E se oggi il loro utilizzo è limitato, e uno scenario del genere sembra alquanto non plausibile, c’è chi ricorda che nel campo delle armi l’arrivo di un nuovo giocattolo porta necessariamente alla proliferazione. E in un mondo in cui in pochi anni tutti gli eserciti devono essere armati di droni kamikaze le chance di errori catastrofici si fanno ovviamente sempre più elevate. Così come il rischio che finiscano nelle mani di organizzazioni criminali o terroristiche (il costo contenuto lo rende fin troppo facile), che potrebbero utilizzarli facendosi pochi scrupoli sulle conseguenze.

Un ultimo aspetto importante è quello dell’accountability: di chi è la responsabilità quando una macchina decide di uccidere? Sembra un problema molto teorico, ma così non è: come ricorda l’esperto di diritti umani James Dawes in un articolo apparso su The Conversation, il diritto bellico, fin dalla convenzione di Ginevra, si basa sull’idea che anche in guerra si possa essere ritenuti responsabili delle proprie azioni. Un soldato che compie un crimine di guerra può essere processato e condannato da un tribunale internazionale. 

Ma se è un drone a sparare su civili indifesi, chi deve essere ritenuto colpevole della strage? Il soldato che lo ha lanciato? L’ufficiale che glielo ha ordinato? L’azienda produttrice dell’arma? Con l’utilizzo di droni kamikaze da parte di entrambi gli schieramenti, il conflitto in Ucraina rischia quindi di trasformarsi nel battesimo ufficiale di una nuova generazione di armi, che renderanno sempre più urgente una risposta a simili domande. Così come una presa di posizione internazionale sul loro utilizzo.

via Wired.it