«Secondo i militari la guerra sarebbe molto meno pericolosa se combattuta da robot»: si tratta dell’affermazione di apertura di un articolo di prima pagina apparso sull’International Herald Tribune del 27 novembre 2010 a firma di J. Markoff. Ma a che punto è l’uso delle macchine da guerra che vanno sotto il nome di robot per uso militare? La parola robot è stata usata per la prima volta nel senso oggi comune nella temperie futurista dell’Europa del 1920 in una commedia dell’autore ceco Karel Cˇapek, e deriva dalla radice slava robota che vuol dire lavoro (e in particolare lavoro servile). La pièce metteva in scena degli androidi con capacità straordinarie e poneva già allora i problemi del loro sfruttamento e delle conseguenze del loro uso. Ancora oggi non c’è un vero consenso su cosa sia un robot. L’Encyclopaedia Britannica li definisce come «any automatically operated machine that replaces human effort, though it may not resemble human beings in appearance or perform functions in a humanlike manner», e in generale sono considerati provvisti della capacità di percepire dati da oggetti o ambienti esterni, di processarli e di rispondere a vari tipi di stimoli.
Tutti siamo ormai abituati a convivere con questo tipo di congegni nella vita comune, in particolare nei settori dell’industria e dei servizi, ma il loro uso militare sul campo di battaglia continua a lasciarci piuttosto a disagio. Alcuni ritengono che il futuro della guerra moderna sia proprio nei sistemi d’arma automatici, e i militari americani stanno da tempo investendo molto nella ricerca e sviluppo in questo settore: si veda per esempio la pagina della robotica sul sito della SPAWAR (Space and NavalWarfare Systems Command), uno dei tre comandi per le acquisizioni importanti del Dipartimento della Marina degli USA. I più noti fra i sistemi attualmente in uso sono dei particolari UAV (Unmanned Aerial Vehicle) noti con il nome di MQ-1 Predator. Inizialmente gli UAV erano semplici drones (cioè aerei pilotati a distanza), ma col passare del tempo hanno anche acquisito una crescente autonomia operativa.
Sviluppati dalla General Atomics negli anni Novanta con la sigla RQ per ruoli di osservazione e ricognizione, i Predator si sono poi evoluti nella versione MQ destinata ad operazioni offensive e sono stati – e lo sono ancora – usati in Afghanistan, Pakistan, Iraq, Yemen e nei Balcani. Per ragioni di segretezza i militari americani hanno pubblicato delle valutazioni sulle loro capacità di intelligence e ricognizione, ma rifiutano di discutere in pubblico del loro uso offensivo. I Predator sono oggi armati con due missili aria-terra Hellfire e sono controllati a distanza da un centro di comando.
Durante la campagna nei Balcani i “piloti” dei Predator erano localizzati presso la base operativa di questi sistemi (che erano segretamente lanciati dall’Albania e dall’Ungheria). Successivamente però, con lo sviluppo delle comunicazioni satellitari, i centri di comando si sono molto allontanati e oggi sono localizzati anche in diverse basi militari negli USA. Dal punto di vista militare i vantaggi dell’uso di questi sistemi sono molteplici. Non solo il personale di controllo non rischia la vita, ma i Predator consentono anche di evitare i problemi diplomatici conseguenti alla possibile cattura dei piloti quando – come è avvenuto per esempio in Pakistan o Yemen – i bombardamenti hanno luogo, senza permesso ufficiale, sul territorio di paesi che non sono in guerra con gli USA.
La cosa però assume tutto un altro aspetto se si considerano gli effetti complessivi dell’uso di questi sistemi. In particolare è stata messa in questione l’accuratezza con cui gli UAV individuano i loro bersagli, sollevando seri problemi morali circa i cosiddetti danni collaterali. In pratica, dalla loro posizione, spesso i controllori trascurano di prendere tutte le possibili precauzioni per verificare che gli obiettivi individuati dai Predator siano effettivamente dei combattenti, oppure semplicemente non riescono a distinguere fra obiettivi civili e militari.
Un’idea dell’entità dei danni collaterali si può ricavare da un rapporto della Brookings Institution (luglio 2009) nel quale si afferma che negli attacchi americani con UAV in Pakistan si producono una decina di vittime civili per ogni militante eliminato. Peraltro, al di là della tragedia umanitaria, queste vittime civili creano ovviamente pericolosi problemi politici. Per esempio l’ex ambasciatore pakistano S. Azmat Hassan ha dichiarato (Newsweek, 8 luglio 2009) che l’opinione pubblica del suo paese si sta orientando sempre più contro gli USA proprio a causa degli attacchi con UAV. I quali, inoltre, non sembrano neanche particolarmente efficaci: basti pensare che 35-40 di questi interventi sembrano aver eliminato solo 8-9 importanti membri di al-Qaeda.
Ma i robot militari – che non si limitano affatto solo agli UAV – svolgono oggi un gran numero di compiti rischiosi, dalla sorveglianza armata allo sminamento, con alcuni evidenti vantaggi: non si distraggono, non si fanno prendere dal panico in combattimento, e possono anche attendere i valutare bene una situazione prima di far fuoco. Eppure l’idea che i robot sostituiscano l’uomo in combattimento resta estremamente controversa. Innanzitutto, data la drastica diminuzione del rischio per i controllori, un loro uso massiccio abbasserebbe le barriere che frenano i nostri istinti aggressivi. Inoltre c’è il rischio di una nuova corsa agli armamenti tecnologici. Le guerre potrebbero quindi essere intraprese troppo facilmente e le vittime civili potrebbero conseguentemente aumentare come nel caso dei Predator. Taluni ambienti militari invece insistono sul fatto che sistemi di intelligenza artificiale possano essere più adatti a prendere decisioni ponderate (una macchina non agisce per rabbia o paura) e a fare attenzione alle regole di ingaggio. Una miscela di intelligenza umana e artificiale si è d’altra parte rivelata importante nei recenti conflitti in Iraq e in Afghanistan: dai controlli dei veicoli ai checkpoint, alla disattivazione di ordigni esplosivi artigianali. Lo sviluppo di questi sistemi, inoltre, non è affatto confinato solo agli USA: l’articolo inizialmente citato riporta che ci sono almeno 56 paesi impegnati in questo settore.
I problemi etici restano però spinosi: il gruppo internazionale ICRAC – International Community for Robot Arms Control sostiene che i combattimenti sarebbero incentivati e che sarebbe invece diminuita la capacità di assumere decisioni responsabili: i benefici a breve termine sarebbero così superati dagli svantaggi a lungo termine. Ciononostante lo sviluppo dei sistemi continua con risultati fantascientifici. È prevista per i prossimi anni l’entrata in servizio accanto alle truppe regolari di veicoli ausiliari muniti di “gambe” per permettere loro di muoversi su terreni difficili, o di reti di micro robot delle dimensioni di un modellino d’automobile che lavorando in gruppo eseguono ricognizioni in aree potenzialmente ostili. La tendenza è oggi verso sistemi più leggeri e poco dispendiosi, diversi cioè dai Predator armati di missili Hellfire. Per esempio i MAARS (Modular Advanced Armed Robotic System), prodotti dalla QinetiQ North America come sistemi per compiti come la sorveglianza notturna, sono delle dimensioni di una falciatrice da giardino.
Non dobbiamo però farci abbagliare dagli strabilianti risultati di questa tecnologia, cercando invece responsabilmente di chiederci cosa potrebbe accadere se – e questo è il punto veramente cruciale – gli esseri umani fossero in futuro esclusi dal processo di decisione su far fuoco o meno. Infatti, nonostante l’attuale insistenza degli ambienti militari sul fatto che comunque il “dito sul grilletto” sarà sempre quello di un essere umano, la velocità delle decisioni necessarie nei combattimenti sta rapidamente diventando tale da richiedere proprio l’esclusione di questo controllore pensante e moralmente responsabile. La sinistra tendenza a creare robot autonomi che possano scegliere i propri bersagli e ucciderli sembra inesorabile. E questo è certamente molto poco rassicurante. Soprattutto in vista della quasi totale assenza di discussione internazionale su questi sistemi, sul loro impatto sulla tecnica bellica e soprattutto sui loro possibili effetti sulle popolazioni civili.
Fonte: Sapere di Aprile
Sarebbe, invece, interessante sapere cosa l’uomo può fare per evitare che pacifici discorsi si concludano in guerre, giacché molte campagne vengono intraprese da adulti non in grado di prendere neanche le più futili delle decisioni esistenti e, soprattutto, le stesse decisioni non seguono alcun iter approvativo, né verso i cittadini (che sostentano indirettamente i massacri), né tantomeno verso persone con un po’ più di materia grigia di semplici politici (che, nella storia delle democrazie, non hanno mai fatto le veci e la volontà del popolo).
I problemi andrebbero risolti sempre alla radice, qualora fosse possibile. E ritengo che parlare di invasione e sterminio di altri paesi e persone – per quanto non stimi la maggior parte dell’umanità – mi sembra, quantomeno, fuori luogo, visto che dovremmo spingere sempre più verso la pace, piuttosto che al riarmo frenetico.
Una delle soluzioni potrebbe essere quella di riformare il sistema scolastico e gli insegnanti stessi, in modo tale che s’insegni l’educazione civica, quella verso il prossimo, l’abbandono di atteggiamenti cavernicoli a cui, troppo spesso, assistiamo persino in Parlamento. Quantomeno in Italia.
Forse è un po’ utopistica la mia visione del futuro; abbiamo ancora molta strada da fare.
Sono fiducioso per la robotica, invece, che sta sempre più acquisendo una fetta d’interesse verso tutti. E spero vivamente che non finisca in mano ai militari, visti i precedenti.