Un impianto cerebrale per leggere il pensiero e tradurlo in parole, con un avatar

(Foto: Pete Linforth da Pixabay)

L’intelligenza artificiale ha raggiunto un altro incredibile successo, restituendo la voce a una donna paralizzata. A raccontarlo sulle pagine della rivista Nature sono i ricercatori dell’Università della California a San Francisco e Berkeley che, sviluppando una nuova interfaccia cervello-computer (Bci), hanno permesso a una donna con una grave paralisi di tornare a parlare attraverso un avatar digitale. È la prima volta al mondo che il linguaggio e le espressioni facciali vengono tradotti a partire da segnali cerebrali.

L’addestramento

Per farlo, il team, guidato dal neurochirurgo Edward Chang, ha impiantato una pellicola rettangole e sottilissima di 253 elettrodi su un’area del cervello critica per la comunicazione di una donna rimasta paralizzata per un ictus al tronco encefalico più di 18 anni fa. Gli elettrodi, quindi, hanno intercettato l’attività elettrica del cervello che, se non fosse stato per l’ictus, dirigerebbe la parola e i muscoli della lingua, della bocca e della laringe, nonché del viso. Per settimane, quindi, la donna e i ricercatori hanno addestrato gli algoritmi del sistema di intelligenza artificiale a riconoscere i modelli di attività cerebrale associati ai diversi suoni.

Più precisa e veloce

In particolare, invece di addestrare l’intelligenza artificiale a riconoscere parole intere, i ricercatori hanno creato un sistema che decodifica le parole dai fonemi, ossia le sotto-unità del discorso che formano le parole pronunciate nello stesso modo in cui le lettere formano le parole scritte. Per esempio “hello” contiene quattro fonemi: “hh”, “ah”, “l” e “ow”. Utilizzando questo approccio, quindi, il computer ha dovuto imparare solo 39 fonemi per decifrare qualsiasi parola in inglese, rendendo quindi il sistema più preciso e veloce. “La precisione, la velocità e il vocabolario sono cruciali”, ha spiegato Sean Metzger, tra gli autori dello studio. “È ciò che offre a un utente il potenziale, nel tempo, di comunicare velocemente quasi quanto noi e di avere conversazioni molto più naturali”.

Voce ed espressioni facciali

Per rendere tutto ancora più realistico, il team ha sviluppato un algoritmo capace di sintetizzare la voce e lo ha poi personalizzato, affinché suonasse come quella della paziente, utilizzando una registrazione fatta al suo matrimonio. Per quanto riguarda le espressioni facciali, invece, i ricercatori hanno animato l’avatar con l’aiuto di un software che simula i movimenti muscolari del viso e, anche in questo caso, lo hanno personalizzato addestrando gli algoritmi tramite i segnali cerebrali della donna mentre provava a parlare. Da qui, li hanno convertiti nei movimenti sul viso dell’avatar, che è stato capace di riprodurre espressioni di felicità, tristezza e sorpresa.

La modalità wireless

“Siamo riusciti a recuperare le connessioni tra il cervello e il tratto vocale che sono state interrotte dall’ictus”, ha commentato Kaylo Littlejohn. “Quando la paziente ha utilizzato per la prima volta questo sistema per parlare e muovere il volto dell’avatar in tandem, sapevo che sarebbe stato qualcosa che avrebbe avuto un impatto reale”. Il prossimo passo sarà quello di riuscire a creare una versione wireless che non richieda, quindi, che l’utente sia fisicamente connesso alla Bci. “Dare alle persone la possibilità di controllare liberamente i propri computer e telefoni con questa tecnologia avrebbe importanti effetti sulla loro autonomia e sulle interazioni sociali”, ha concluso il co-primo autore David Moses.

Via: Wired.it

Credits immagine: Pete Linforth da Pixabay

Leggi anche: Così il cervello ascolta il pensiero