Guida autonoma: i problemi sollevati dall’incidente Uber

Ci siamo, un’auto a guida autonoma ha ucciso un essere umano. Nulla di imprevedibile, a dire il vero: come facevamo notare nessuna tecnologia è perfetta, e se le macchine senza pilota si diffonderanno realmente gli incidenti, anche mortali, saranno inevitabili. Ma come tutte le prime volte, questa morte farà parlare. Ed è destinata probabilmente a portare alla luce alcuni nodi mai sciolti nel campo dell’intelligenza artificiale e della robotica. Dilemmi etici, problemi legali e normativi sottolineati più volte e da più parti, ma ancora mai affrontati a pieno dai legislatori e dagli stessi produttori. E invece più che mai attuali, non solo per la cronaca recente, ma soprattutto per la velocità con cui evolvono le tecnologie.

L’incidente
Per iniziare, vediamo cosa si sa dell’incidente. La 49enne Elaine Herzberg stava attraversando da sola e di notte una strada a quattro corsie, spingendo a piedi la sua bicicletta lontano da un attraversamento pedonale. In un video diffuso dalla polizia americana si vede spuntare la signora di colpo, nel buio, a una distanza troppo breve dalla macchina per immaginare che una frenata tempestiva potesse evitare la tragedia. E infatti voci di corridoio (per quanto premature) dicono che Uber e il collaudatore dell’auto difficilmente saranno ritenuti legalmente responsabili della morte della donna.

Il video però mostra anche altro. Per prima cosa, il pilota dell’automobile sembra estremamente distratto: continua a volgere lo sguardo verso il basso, probabilmente verso un libro o un cellulare (anche se per ora non si può escludere che guardasse in realtà un monitor o qualche altro sistema di navigazione dell’auto).

Dalle immagini sembra accorgersi della signora quando riporta lo sguardo sulla strada a pochissimi istanti dall’impatto, e assume un’espressione terrorizzata. Se fosse realmente così, avrebbe innegabilmente la sua buona dose di responsabilità. Forse non legalmente, ma di certo in senso pratico: essendo pagato proprio per riprendere il controllo dell’auto in caso di pericoli o malfunzionamenti, distraendosi avrebbe reso del tutto vana la sua presenza, che è uno dei sistemi di sicurezza più importanti nel corso di questi esperimenti su strada.

Come racconta inoltre all’Associated Press Bryant Walker Smith, giurista della University of South Carolina esperto di veicoli a guida autonoma, la donna si muoveva in un tratto di strada aperto e privo di ostacoli che potessero ingannare i sensori dell’automobile. “La vittima non arriva dal nulla – spiega Smith – è vero, attraversa una strada buia, ma è un tratto di strada aperto, e quindi il Lidar (laser) e il radar avrebbero dovuto individuarla e classificarla come essere umano”. Se sviluppiamo auto senza pilota, d’altronde, è proprio per la promessa che guideranno meglio di un essere umano, soprattutto in condizioni di scarsa visibilità. Quanto accaduto quindi lascia pensare a un fallimento multiplo di tutti i sistemi di sicurezzadell’auto (non ultimo il pilota umano). Un’eventualità inquietante ora che i veicoli a guida autonoma stanno iniziando a essere esperimentati su strada in molti paesi.

Non ultimo l’Italia: con il decreto smart roads firmato nelle scorse settimane dal ministro dei trasporti è infatti stato dato il via libera ai test su strada anche nel nostro paese. Ci vorrà un po’ ovviamente prima di vederle girare, ma sono destinate a diventare una presenza costante anche su alcune strade italiane. Nulla vieta dunque che accadano incidenti anche da noi, anche se qui almeno sulle responsabilità non ci sarebbero stati molti dubbi: il decreto stabilisce infatti chiaramente che le responsabilità sono sempre e comunque attribuite al pilota umano, a prescindere da quale modalità di guida stia utilizzando al momento di un incidente.

La questione delle responsabilità
Proprio l’attribuzione di responsabilità in caso di incidenti è probabilmente il punto più urgente da dirimere prima di pensare alla commercializzazione delle macchine a guida autonoma. In questa fase di test non è poi complesso individuare la colpa: produttore e conducente coincidono, almeno sotto il profilo delle responsabilità civili. Ma in futuro ci si troverà ad avere macchine prodotte da un’azienda automobilistica, che montano un hardware prodotto da una seconda azienda e su cui gira un software programmato da un terzo soggetto. Ci saranno poi il rivenditore, le officineche si occupano di tagliandi e controlli di sicurezza, e infine il proprietario, responsabile della manutenzione quotidiana del mezzo, di installare updatedei programmi ecc… Insomma: in caso di incidenti e malfunzionamenti lacatena delle potenziali responsabilità è molto più lunga di quella di un’auto tradizionale, per cui (in linea di massima) è sempre responsabile il conducente.

E attualmente, non siamo preparati ad affrontare questa inestricabile matassa di potenziali responsabilità civili. “È un classico problema che si affronta quando ci si occupa di intelligenza artificiale: chi è il responsabile in caso di incidenti?”, racconta a Wired Guido Scorza, avvocato esperto di diritto delle nuove tecnologie. “Attualmente non esistono leggi a riguardo né in Italia né in Europa. C’è però una comunicazione della Commissione europea che sottolinea la necessità di dotarci al più presto di un quadro normativo chiaro per le responsabilità civili nel campo della robotica. Nel testo si parla anche di veicoli a guida autonoma, e si sottolinea che sarà importante poter sempre identificare chiaramente l’identità del soggetto responsabile a livello legale, e la necessità di algoritmi decisionali trasparenti, che permettano di sapere chiaramente cosa guida le scelte del veicolo”. Solo in questo modo, chiarisce Scorza, si può attribuire la responsabilità a un conducente: se so come è programmata l’intelligenza artificiale di un automobile e decido di mettermi alla guida evidentemente accetto di avallarne le decisioni e di assumerne la responsabilità.

L’etica delle macchine
A questo punto, il discorso sulle responsabilità civili si incrocia inevitabilmente con un altro ambito problematico nello sviluppo di intelligenze artificiali, robot e automobili senza pilota: la questione dellescelte morali e dell’etica. Questioni del tipo: se l’automobile rischia di investire un bambino, ma per evitarlo sa che colpirà una coppia di anziani, cosa deve fare? O ancora: se l’auto per evitare il bambino l’auto dovesse schiantarsi su un palo? Sembrano questioni astratte, ma rappresentano in realtà un problema molto concreto, e un altro esempio di un ambito in cui è auspicabile che le aziende produttrici facciano scelte trasparenti, che permettano agli utenti di conoscere quali principi guidano le decisioni della propria automobile, prima di mettersi alla guida. Anche nell’incidente recente che ha coinvolto Uber si può infatti vedere lo spettro di questi problemi.

Il pedone era spuntato troppo velocemente per permettere di inchiodare, ma probabilmente il tempo sarebbe stato sufficiente per provare a schivarlo con una sterzata. Una manovra pericolosa per il conducente, ma che la maggior parte di noi d’istinto avrebbe tentato ugualmente, senza pensare alle potenziali conseguenze. Una macchina a guida autonomainvece cosa avrebbe fatto? È a questo genere di quesiti etici che dovremo trovare risposta: le macchine autonome andranno programmate per massimizzare il numero di persone salvate? Per preferire la vita di alcune categorie, magari i bambini, a quella di altre? Per dare priorità alla sicurezza del proprio pilota? Rispondere non è facile (se volete allenarvi, l’Mit ha realizzato una moral machine che simula proprio questo genere di situazioni), e difficilmente una legge (che per ora non esiste ovviamente) potrebbe rispondere puntualmente a simili quesiti. Ma ciò non toglie che in qualche modo andranno affrontati.

“Questioni del genere possono portare facilmente a derive preoccupanti in assenza di un chiaro quadro normativo”, sottolinea Scorza. “Difficilmente una legge potrà dare risposte punto per punto su un tema del genere, ma è auspicabile che prima di aprire le porte alle Ai l’Europa si doti di una griglia normativa alta, una serie di principi generali che guidino il settore, magari sul modello della soft low, con un garante europeo a cui i produttori dovranno rivolgersi, spiegando per filo e per segno le caratteristiche del proprio prodotto prima di ricevere l’omologazione”. Altrimenti, il rischio è quello di trovarsi a convivere con scelte fatte da altri: il mercato, le cui regole di certo non hanno a che fare con l’etica, o magari i paesi dove vengono prodotte le automobili, le cui leggi potrebbero non essere basate esattamente sugli stessi principi che avremmo scelto da queste parti.

Via: Wired.it

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here