No all’intelligenza artificiale per scopi bellici

Da pellicole storiche come Terminator, screamers o War Games, fino al più recente Age of Ultron, il tema delle macchine assassine è un autentico classico della fantascienza. Un pericolo che siamo abituati a proiettare lontano nel futuro, ma che invece potrebbe essere già ad un passo dal trasformarsi in realtà. Ad esserne convinti sono centinaia di ricercatori ed esperti di intelligenza artificiale (tra cui troviamo nomi illustri come quelli di Elon Musk, Stephen Hawkings, Steve Wozniak e Noam Chomsky) che in una lettera aperta presentata lo scorso lunedì durante la International Joint Conference on Artificial Intelligence di Buenos Aires hanno chiesto di bandire a livello globale per lo sviluppo dei cosiddetti armamenti autonomi. Una decisione che gli esperti giudicano essenziale per impedire un’escalation militare paragonabile a quelle avvenute con lo sviluppo delle armi da fuoco e l’avvento delle bombe atomiche.

I firmatari del testo spiegano che le autonomous weapons, o “armi autonome” sono dispositivi bellici in grado di scegliere e ingaggiare i propri bersagli senza la guida di un operatore umano. Non parliamo quindi di missili o droni teleguidati, ma di apparecchi che possono prendere decisioni autonomamente, e che potrebbero essere utilizzati ad esempio per pattugliare una determinata area, e attaccare qualunque obbiettivo (parliaqmo di persone ovviamente) che risponda a determinati criteri prestabiliti (abbigliamento, gruppo etnico di appartenenza, ecc…) che lo identifichino come nemico. Grazie ai recenti sviluppi nel campo dell’intelligenza artificiale, assicurano gli esperti nella lettera, dispositivi di questo tipo potrebbero ormai essere prodotti nel giro di pochi anni.

Armi di questo tipo ovviamente porterebbero notevoli benefici in campo bellico, riducendo fortemente le perdite umane negli eserciti che le impieghino, e con una minore necessità di personale rispetto a missili e droni controllati in remoto. Al contempo, riflettono gli autori della lettera, un minor costo umano potrebbe spingere le potenze mondiali a muovere guerra più facilmente, e l’utilizzo di queste nuove armami da parte di una delle super potenze porterebbe inevitabilmente ad una corsa agli armamenti mondiale.

“Se anche una sola delle principali potenze militari portasse avanti lo sviluppo dell’intelligenza artificiale a scopo bellico, una corsa agli armamenti è virtualmente inevitabile, e il punto di arrivo di questo percorso tecnologico è ovvio: gli armamenti autonomi diventerebbero il Kalashnikov del futuro”, scrivono i firmatari della lettera.

Gli studi nel campo dell’intelligenza artificiale potrebbero avere un impatto formidabile in campi strategici come la medicina, la lotta alla povertà e lo sviluppo di tecnologie per intervenire in caso di disastri naturali, ma la possibilità che vengano utilizzate in campo bellico, avvertono gli esperti, potrebbe rallentare fortemente gli sviluppi futuri perché molti ricercatori sono consapevoli dei rischi che rappresenterebbero per l’umanità.

Per questi motivi, gli esperti chiedono a tutte le potenze mondiali di firmare un trattato che vieti la ricerca e lo sviluppo di tecnologie belliche che impieghino l’intelligenza artificiale, come è avvenuto in campi come la chimica, con il trattato sull’utilizzo delle armi chimiche, e nella fisica, con i trattati internazionali sull’utilizzo delle testate atomiche.

via Wired.it

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here