Gary Chapman, l’informatico scettico

Il 14 dicembre 2010 a soli 58 anni è scomparso Gary Chapman, coscienza critica della comunità degli informatici e divulgatore presso l’opinione pubblica delle implicazioni etiche e pratiche dell’uso bellico delle nuove tecnologie informatiche.

Incontrai Gary per la prima volta a uno dei primi convegni internazionali dellUnione degli Scienziati Per Il Disarmo (USPID) a Castiglioncello, forse il primo di questa serie di convegni, credo nel 1985. Era la prima volta che partecipavo ad un evento organizzato dalla comunità Pugwash- USPID-ISODARCO: mi ero appena laureato in informatica e avevo una visione piuttosto ottimista e positiva, forse eccessivamente positiva, delle possibilità di questa disciplina. Non mi era molto familiare il motto Question Technology adottato dalla Computer Professionals for Social Responsibility (CPSR), l’associazione della quale Gary era appena diventato direttore esecutivo, il 1° gennaio 1985.

Ecco come veniva descritta la figura di Gary Chapman nel numero della [The] CPSR Newsletter in cui veniva salutato come nuovo direttore: «Il background di Gary include il servizio militare, la ricerca accademica e l’esperienza organizzativa. Ha prestato servizio nelle forze speciali degli Stati Uniti, (i “berretti verdi”), dove ha potuto conoscere molti sistemi d’arma ad alta tecnologia. Ha ricevuto il B.A. in scienze politiche, con lode, presso l’Occidental College [Los Angeles] e ha continuato con il dottorato alla Università di Stanford. Ha svolto attività di ricerca in filosofia politica, intelligenza artificiale e applicazioni militari dell’intelligenza artificiale» (1).

Luci e ombre dell’Informatio Technology

Il lavoro di ricerca e diffusione della conoscenza svolto da Gary è stato incredibilmente vario. Qui citerò solo alcune delle tante iniziative e dei progetti che ha concepito, guidato e attuato. Come direttore esecutivo di CPSR ha guidato l’associazione in uno dei periodi più difficili ma anche più eccitanti: quello della guerra della ragione e della conoscenza contro le Star Wars del presidente Reagan. E CPSR è stata tra i vincitori perché è riuscita a rendere la comunità degli informatici, sia statunitense che mondiale, consapevole dei difetti concettuali e tecnici intrinseci all’idea della SDI (Strategic Defense Initiative, il nome ufficiale delle Star Wars). Ma Gary non era soltanto un pensatore e intellettuale sofisticato. Egli “dispiegava” le sue idee, mettendo in pratica ciò che considerava il lato buono della Information Technology.

Dopo la sua esperienza con CPSR, diresse il 21st Century, un progetto «dedicato ad ampliare la partecipazione dei cittadini allo sviluppo di nuovi obiettivi per la politica scientifica e tecnologica nell’era post-Guerra Fredda». Il progetto, al quale Gary aveva dato inizio già da direttore della CPSR, fu finanziato per diversi anni dalla National Science Foundation e la sua attuazione ebbe luogo principalmente alla B. Lyndon Johnson School of Public Affairs, la scuola di specializzazione in public policy dell’Università del Texas a Austin, dove Gary insegnava.

Fra i progetti di ricerca sviluppati nell’ambito del 21st Century Project rientrano iniziative per portare i computer e Internet nei quartieri poveri di Austin; l’uso responsabile di Internet da parte dei giovani; la diffusione di connessioni Internet a banda larga nelle zone rurali del Texas; aiutare lo Stato del Texas nella riforma della sanità mentale. Come canali di diffusione per il suo lavoro, ha usato non solo bollettini e riviste specializzate, come la CPSR Newsletter, o le Communications of the Association for Computing Machinery – la principale associazione degli informatici accademici e professionisti – o The Bulletin of the Atomic Scientists, ma anche i giornali: per sei anni ha curato la Digital Nation, la rubrica bi-settimanale su tecnologia e società del Los Angeles Times. Era anche autore di una rubrica quindicinale per l’Austin American Statesman. Ma ha anche scritto per giornali quali The New York Times, The Washington Post, The New Republic, Technology Review.

Nel 1987, insieme a David Bellin, curò il libro Computers in the Battle. Will They Work? definito come The Best Computer Book of the Year della National Computer Press Association. È stato anche autore e co-autore di altri libri nel campo dell’informatica e della società ed in altri campi. La sensibilità e l’esperienza di Gary su temi quali il rapporto fra la tecnologia (informatica) e la società ha portato alla sua nomina, nel 1999, a membro del comitato di selezione per l’assegnazione dell’ACM Turing Award, il massimo riconoscimento in informatica, l’equivalente del premio Nobel per gli informatici. Pochi anni dopo, Gary, «il pensatore leader in tema di implicazioni sociali dell’informatica», come è stato definito alla sua nomina, è stato eletto presidente del comitato.

Gary è stato anche un amico dell’ISODARCO (International School On Disarmament And Research On COnflicts, www.isodarco.it) e dell’USPID. Ha partecipato a diverse conferenze di Castiglioncello e tenuto lezioni in corsi ISODARCO. Ho avuto il piacere e il privilegio di organizzare insieme a Gary i due corsi estivi del 1999 e del 2002. Il primo, a Rovereto, era intitolato Computers, Networks, and the Prospects for European and World Security mentre l’argomento del secondo era Cyberwar, Netwar, and the Revolution in Military Affairs – Real Threats and Virtual Myths (Trento). Steve Wright insieme ad altri autori, curò l’omonimo libro (Pelgrave MacMillan) sulla base delle lezioni presentate in questo ultimo corso. Se si considera l’importanza che ha assunto, ai giorni d’oggi, il tema della guerra informatica, si capisce, ancora una volta, quanto Gary riuscisse a guardare con lucidità e rigore scientifico al futuro! Nel seguito mi concentrerò solo su alcuni dei molti contributi di Gary pubblicati nella [The] CPSR Newsletter. A metà anni Ottanta, la discussione sull’SDI oscurò in parte le informazioni su un’altra importante iniziativa di ricerca militare, lo Strategic Computing Program (SCP) finanziata con 600 milioni di dollari in cinque anni dalla DARPA. CPSR, e Gary in particolare, hanno contribuito a sensibilizzare la comunità degli informatici e l’opinione pubblica su tale programma, sulle sue implicazioni pratiche, nonché sul suo impatto filosofico sulla dottrina militare di quel periodo.

In breve, lo scopo del programma era di sviluppare dispositivi dotati di intelligenza artificiale (IA) per l’automazione di diversi aspetti del campo di battaglia. In particolare il programma prevedeva la costruzione di autoveicoli autonomi con missioni di combattimento, di un aiuto pilota artificiale – destinato a prendere il controllo dell’aereo per esempio quando il pilota umano fosse svenuto a causa di forti accelerazioni – di sistemi di monitoraggio del campo di battaglia e di sistemi esperti per il situation assessment e il supporto ai processi decisionali dei comandanti della Air Force e dell’esercito. Questi ultimi sistemi, e in particolare l’Army Airland Battle System, erano fortemente collegati alla nuova dottrina della Airland Battle. Gary ha prodotto uno studio approfondito e dettagliato su questi nuovi concetti, pubblicato nei numeri dell’autunno 1985 e inverno 1986 della [The] CPSR Newsletter.

La sua analisi parte da esempi storici, tra cui il blitzgrieg tedesco e l’esperienza del Vietnam, (che Gary conosceva molto bene!) per presentare i principi della nuova dottrina statunitense, basati, in linea generale, sulla flessibilità e lo spirito di iniziativa dei soldati sul campo per far fronte agli eventi specifici che ivi avevano luogo, anche e spesso in modo imprevedibile, piuttosto che sulla esecuzione cieca degli ordini. Tale flessibilità e capacità decisionale sarebbero dovute essere integrate e supportate da sistemi d’arma computerizzati e ad alta tecnologia, dal momento che l’assunto di base è che l’informazione è lo strumento più utile per sconfiggere il nemico, soprattutto quando non si può contare sulla superiorità numerica: «C’è una somiglianza [nella descrizione della dottrina Airland Battle nelle riviste militari] con la pubblicità per i sistemi informatici aziendali, che promettono alle piccole imprese i vantaggi competitivi delle aziende di grandi dimensioni senza la spesa in termini di capitale e risorse umane [che caratterizza queste ultime]. Questo spirito di “fare di più con meno” è oggi diventato una parte fondamentale della pianificazione dell’esercito americano, nonostante l’enorme bilancio della difesa. La rivoluzione manageriale che ha avuto luogo nelle aziende americane, alla fine ha penetrato gli ambienti militari. Così non sorprende scoprire che l’ossimoro “gestione della battaglia” è la nuova buzz word nella pianificazione militare. […]. La raccolta di informazioni tramite dispositivi elettronici in guerra non è una novità. [segue una breve descrizione dell’esperienza USA in Vietnam]. Si è sostenuto che l’uso di […] sensori e l’inaffidabilità sia dei sensori che dei programmi informatici utilizzati per l’analisi dei dati abbiano contribuito in maniera significativa al fatto che gli Stati Uniti abbiano sganciato nel sud est asiatico il triplo, in tonnellaggio, del totale delle bombe sganciate da tutte le Potenze in tutti i teatri della seconda guerra mondiale. Durante la guerra del Vietnam, studi condotti dal National War College suggeriscono inoltre che i bombardamenti di routine da altitudini molto elevate, effettuati utilizzando come identificatori di bersaglio soltanto le coordinate e informazioni elettroniche ha prodotto una tendenza all’over-killing. […]. La conclusione di questi studi è che coloro i quali consegnano la morte a distanza, con poco o nessun contatto umano con le loro vittime, sono molto più disposti a utilizzare maggiori quantità di potenza di fuoco» (2).

Dovremmo fare tesoro delle osservazioni sopra riportate quando discutiamo, per esempio, dell’opportunità di usare droni. Purtroppo, temo, gli avvertimenti di Gary non sono stati presi sul serio dagli ingegneri informatici che progettano armi. E Gary prosegue: «È tuttavia probabile che armi e sistemi di gestione della battaglia altamente automatizzati, rapidi e massicciamente distruttivi, trasformeranno la maggior parte dei soldati in spettatori o vittime. La prima lezione che viene impartita agli ufficiali dell’esercito a West Point – e, a quanto pare la prima che si dimenticano quando escono – è che “nessun piano di battaglia sopravvive al contatto con il nemico”. Proprio i sistemi che vengono creati oggi sono quelli che rischiano di accrescere la confusione, la complessità e la distruttività della guerra» (3). Viene poi citato l’Automatic Target Recognition (ATR) e come esempio significativo viene richiamato un brano di un documento tecnico a proposito di come l’IA potrebbe essere utilizzata per far fronte al “collo di bottiglia dell’informazione”; Gary confuta in questo modo: «C’è una serie di “se” concatenati nella descrizione del processo [che si basa sull’IA], ma alcuni ricercatori dell’IA sembrano avere totale fiducia sulle capacità dei computer e, di conseguenza, sull’opportunità di utilizzare i computer nel caos del battle decision-making. BP McCune, per esempio, afferma che “A differenza degli esseri umani, i sistemi di intelligenza artificiale sono adatti a gestire la miriade di dettagli [tipici] delle situazioni complesse, come quelle che spesso si verificano in ambienti militari”. Tale valutazione appare del tutto in contrasto con l’esperienza della maggior parte dei ricercatori di intelligenza artificiale, che sono stati capaci di costruire sistemi solo in settori in cui le variabili siano limitate a range sufficientemente conosciuti e compresi. Ancora più allarmante è la recente notizia che i ricercatori IA presso la General Electric starebbero lavorando a un sistema di gestione della battaglia che cercherà di operare con “dati mancanti o contraddittori”» (4).

È interessante notare che questo linguaggio ritorna, almeno in parte, di moda di tanto in tanto, come è il caso oggi, per esempio, con alcune interpretazioni di autonomic computing. In una certa misura, e in senso stretto, ci sono paradigmi di calcolo in cui ogni agente opera solo sulla base di informazioni parziali/locali, mentre il (cosiddetto) comportamento intelligente del sistema emerge dai semplici comportamenti e dall’interazione di popolazioni elevate di agenti semplici. Questo è il caso, per esempio della cosiddetta swarm intelligence. Vale però la pena notare che questo tipo di intelligenza è di livello piuttosto basso: potrebbe, per esempio, rendere il sistema in grado di attraversare un fiume o di scegliere il cammino più breve fra due punti nello spazio (si vedano ad esempio gli esperimenti di emulazione di comportamenti emergenti delle formiche). Molto meno che la complessa gestione delle battaglie. È, in un certo senso, rassicurante che nella seconda metà degli anni Novanta in un filmato promozionale prodotto da agenzie militari statunitensi in cerca di nuove collaborazioni che ho avuto occasione di vedere, in quanto contattato, come ricercatore, dai promotori dello stesso, venivano mostrate esattamente le stesse cose e gli scenari che Gary descrive nel suo articolo, la stessa visione del campo di battaglia del futuro; è ancora più rassicurante il fatto che in sostanza lo stesso film è stato mostrato non più di quattro anni fa, durante un corso invernale ISODARCO. Spero, che si continui, in futuro, a mostrare una qualche versione di quel film come la “visione del campo di battaglia del futuro”…

Il commento di Gary sul lavoro alla General Electric è stato semplicemente e acutamente: «Un computer in grado di produrre utili analisi con informazioni mancanti sarà veramente una meraviglia» (5). Mi piace concludere citando la parte finale di due articoli di Gary: «Si può sperare invano che i militari possano porre
un freno al loro entusiasmo per l’IA e i computer per la gestione del campo di battaglia dopo aver ascoltato il saggio commento di Alan Perlis che “I lavori validi in IA riguardano l’automazione di quello che sappiamo già fare, non l’automazione delle cose che vorremmo sapere come fare”. Ci piacerebbe essere in grado di “gestire” l’inferno che le battaglie moderne sono in grado di produrre, ma le chances di riuscirci sembrano remote. Abbiamo deciso di costruire sistemi militari che superino la nostra capacità di capire la guerra, che è sempre stata la più caotica e meno compresa attività umana. Automatizzare la nostra ignoranza su come affrontare la guerra produrrà solo maggiori disastri. L’idea che la gente possa essere mandata ad uccidere, e che possa essere inviata a morire, sulla base di decisioni di una macchina è anche una forma concentrata di barbarie moderna. Non ci è noto alcun modo per rendere una macchina responsabile delle sue azioni. Macchine alle quali sia stata data la capacità di uccidere sono capaci di commettere omicidi, omicidi probabilmente ancora più insensati di quelli commessi dagli esseri umani, perché le macchine non avrebbero alcuna motivazione di sorta. Ma esse sono incapaci di rimorso, dolore, senso di colpa o senso di responsabilità, e quindi incapaci di essere punite. A mia conoscenza, non si è ancora visto, in tutta la storia del mondo, un demone che sia stato capace di uccidere, ma incapace di essere punito. Ma siamo sulla strada verso la costruzione di un tale demone, e le conseguenze di un tale atto storico sarebbero profonde, e, probabilmente, irreversibili come lo sviluppo delle armi nucleari» (6).

«Infine, l’uso di armi autonome dovrebbe sollevare profondi interrogativi sulla nostra filosofia politica. Così come l’uso di robot in fabbrica ha fatto sì che alcuni si chiedano quale sia lo scopo ultimo del lavoro – la produzione di beni o permettere alle persone di vivere vite produttive e significative – l’uso di armi autonome dovrebbe farci fermare a riflettere sul perché e come dispiegare le forze. Se è vero che la guerra, a causa del moderno sviluppo delle armi, è troppo letale per essere combattuta dagli esseri umani, allora dovremmo riconoscere la profonda, fondamentale irrazionalità del nostro attuale sistema per la sicurezza nazionale. Se ci fermiamo un attimo e pensiamo al mostruoso crimine di far mandare una persona al suo Creatore da una macchina che non può avere nessun rimpianto, nessun senso della tragedia storica, o qualsiasi senso di empatia e di disperazione, poi magari potremmo pensare più concretamente al mondo che stiamo lasciando ai nostri figli, un mondo che dovrebbe essere libero da tali incubi, un mondo in cui noi dovremmo invece dedicare le nostre migliori capacità intellettuali e le più grandi risorse finanziarie alla costruzione della pace e della mutua comprensione» (7).

Da quando ho incontrato Gary nel 1985 ho imparato tantissimo sul ruolo degli informatici nella società. Diventando suo amico ho scoperto che oltre ad essere un esperto incredibilmente competente in tutti i problemi di etica informatica e responsabilità sociale, Gary era anche un uomo affabile e profondo, sempre pronto a darti una mano. E amava molto godersi la vita! Ha imparato ad apprezzare la cucina italiana; ha imparato l’italiano e credo che la prima parola che ha imparato sia stata “grappa”. Senza alcun dubbio, l’organizzazione dei corsi ISODARCO con Gary è stata l’esperienza più profonda e più interessante della mia vita professionale, come ricercatore informatico, con un occhio sul ruolo della nostra professione nella società. Avevo incontrato il mio vero tutor e abbiamo finito per organizzare corsi ISODARCO insieme … Con lui abbiamo tutti perso uno dei pilastri dell’etica informatica e della responsabilità sociale degli scienziati. Siamo enormemente fortunati per aver incontrato Gary; la sua saggezza e la sua profonda umanità rimarranno sempre una fonte di ispirazione importante, per tutti noi, e ne sono certo, per molti altri (8).

Riferimenti:

(1) CPSR, «Gary Chapman CPSR’s New Executive Director», The CPSR Newsletter, 3(1), winter 1985, p. 1.

(2) CHAPMAN G., «Airland Battle Doctrine», Part II, The CPSR Newsletter, 4 (1), winter 1985, pp. 5-6.

(3) CHAPMAN G., ibid., p. 6.

(4) CHAPMAN G., ibid., p. 7.

(5) CHAPMAN G., ibid., p. 7.

(6) CHAPMAN G., ibid., p. 7.

(7) CHAPMAN G., Thinking About “Autonomous” Weapons. The CPSR Newsletter, 5(4), fall. 1987, p. 7.

(8) Gli articoli di Gary erano anche ricchi di dettagli tecnici e analisi politiche che volutamente non ho trattato negli esempi precedenti e che si possono trovare in abbondanza, anche, per esempio, nei seguenti lavori: G. CHAPMAN, The Politics of the Strategic Defense Initiative. The CPSR Newsletter, 4(3), summer 1986, p. 1; G.
CHAPMAN, C. JOHNSON, The NTB, the SIOP and Arms Control. The CPSR Newsletter, 6 (2), spring 1988, pag. 11 NTB e SIOP stanno, rispettivamente, per: National Test Bed e Single Integrated Operational Plan]; G. Chapman. A Look at Computers in the Soviet Union. The CPSR Newsletter, 7(2), spring 1989, p. 1; G. Chapman. Computer Science and the Bush Administration. The CPSR Newsletter, 8(1-2), winter – spring
1990, p. 1; G. Chapman. News from the 21st Century Project. The CPSR Newsletter, 9(4), fall 1991, p. 17.

Questo articolo è stato pubblicato con il titolo “L’informatico scettico” sul numero di ottobre di Sapere. Ecco come acquistare una copia della rivista o abbonarsi on line.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here