23 leggi della robotica per le intelligenze artificiali del futuro

Come assicurarsi che una futura intelligenza artificiale sia benevola nei nostri confronti, e non decida piuttosto di eliminare i suoi creatori? Come generare una mente sintetica che condivida i nostri valori etici? Queste sono alcune delle domande che hanno guidato il dibattito tra ricercatori nel campo dell’AI, scienziati cognitivi, filosofi, e leader del mondo dell’informatica e della tecnologia, tra cui il Ceo di SpaceX e Tesla Inc. Elon Musk, riuniti all’annuale congresso del Future of Life Institute ad Asilomar, in California, dal 5 all’ 8 gennaio scorso.

La risposta che arriva dal meeting sono 23 precetti da seguire per sviluppare le intelligenze artificiali del futuro. Regole meno succinte delle famose leggi della robotica di Isaac Asimov, che evidenziano come la comunità di ricercatori consideri lo sviluppo di intelligenze artificiali un risultato conseguibile, ma non al riparo da possibili rischi di abuso. Il precetto 18, per esempio, stabilisce che va evitato lo sviluppo di intelligenze artificiali militari, mirate al controllo di armamenti letali autonomi. Ma i rischi possono emergere anche in ambiti civili: come impedire ai programmi per la diagnosi di malattie di proporre trattamenti che violino i diritti del paziente? Un androide intelligente progettato per il sesso può dare il suo consenso a un atto sessuale? È prostituzione se si paga un androide in cambio di prestazioni sessuali?

Divisi in tre sezioni (problemi per la ricerca presente, etica e valori, e problemi a lungo termine), i 23 precetti indicano quindi i potenziali rischi portati dalle intelligenze artificiali, e le strategie con cui evitarli. Il precetto 10, ad esempio, indica come “sistemi dotati di intelligenza artificiale altamente autonomi dovranno essere progettati affinché i loro obiettivi e i loro comportamenti siano in linea con i valori umani nell’intero corso della loro azione”. E il precetto 17 osserva come “il potere conferito dal controllo di sistemi dotati di intelligenza artificiale deve rispettare e migliorare, piuttosto che sovvertire, i processi sociali e civili dai quali dipende il benessere della società”.

Considerando che “un’intelligenza artificiale avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra” (come ricorda il precetto 20), questo potrebbe consistere nel miglioramento della nostra vita, ma anche rappresentare un pericolo. Francesca Rossi, docente di informatica all’università di Padova e relatrice al congresso di Asilomar, sottolinea comunque in un’intervista rilasciata al Future of Life Institute, l’importanza del consenso emerso “tra persone provenienti da discipline e background così diversi, su un’ampia lista di precetti”. Le opinioni di tutti i partecipanti all’incontro, continua Rossi, convergono sulla necessità di assicurarsi che le intelligenze artificiali si comportino in un modo che sia in linea con ciò che ci si aspetta da un umano”.

Sarà davvero possibile? Tra i ricercatori sembra prevalere un cauto ottimismo: “I sistemi di intelligenza artificiale – assicura Rossi – miglioreranno il nostro tipo di intelligenza, che è complementare a quello che hanno le macchine, e questo ci aiuterà a prendere decisioni migliori, vivere meglio, e risolvere problemi che ora non siamo in grado di risolvere”.

Articolo prodotto in collaborazione con il Master SGP della Sapienza Università di Roma

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here