La macchina che indovina la canzone che ascolti

di Grazia Battiato

Leggere nel pensiero, ancora no. Ma indovinare la canzone che si sta ascoltando, osservando quello che accade nel cervello, sì. Lo dimostrano i ricercatori del D’Or Institute for Research and Education di Rio de Janeiro (Brasile), con un lavoro pubblicato su Scientific Reports. Un primo passo per decifrare i pensieri di pazienti in cui si è verificato un blocco della comunicazione, come nella sindrome locked-in.

Quando ascoltiamo un brano che ci piace – spiega Sebastian Hoefle, primo autore dello studio – diverse regioni del nostro cervello mostrano una maggiore attività, per esempio i circuiti cerebrali che in genere rispondono al piacere e alla ricompensa”. Così, per indovinare la canzone ascoltata, i ricercatori coordinati da Hoefle hanno mappato l’attività cerebrale di sei volontari tramite uno scanner a risonanza magnetica. In una prima fase, i volontari hanno ascoltato 40 brani musicali di diverso genere, dal pop al classico, dal jazz al rock. Lo scanner ha quindi rilevato l’impronta neurale che ogni brano lasciava sul cervello dei soggetti, e digitalizzato i modelli cerebrali su un computer. Il computer ha preso in considerazione aspetti legati alle dinamiche musicali, come timbro, tonalità, dinamica e ritmo, ma anche aspetti legati alle emozioni suscitate nei volontari, come gioia e tenerezza.

Nella seconda fase dello studio, un sistema di apprendimento automatico ha cercato di fare esattamente il contrario: indovinare la canzone ascoltata dai volontari in base alla loro attività cerebrale. Questa tecnica è nota come decodifica cerebrale. Attingendo dal database creato nella prima fase dello studio il sistema, potendo scegliere tra due opzioni, è stato in grado di riconoscere il brano con un’accuratezza dell’85%. Per aumentare l’efficacia del sistema, il gruppo di ricerca ha successivamente fornito al computer dieci opzioni. Nel 74% dei casi, l’indicazione è stata corretta.

L’applicazione degli strumenti del machine learning al miglioramento dell’interfaccia uomo-macchina potrebbe creare nuove possibilità di comunicazione, indipendentemente dalla lingua scritta o parlata. Secondo Hoefle, le ricerche sulla decodifica cerebrale forniscono alternative per interagire direttamente con il cervello umano, per esempio in soggetti affetti da gravi forme di disabilità. “Diversi studi dimostrano che i sistemi di intelligenza artificiale sono in grado di interagire con gli input sensoriali (visivi o uditivi), di decodificare le immagini contenute nei sogni, e di decifrare in misura relativamente precisa le informazioni semantiche”, aggiunge Hoefle. Risultati promettenti, ma che mostrano anche i loro limiti attuali, relativi al modo in cui si misura l’attività cerebrale, e pongono domande teoriche sulla stabilità dei modelli nel corso del tempo. “Quanto sono stabili – conclude il ricercatore – le rappresentazioni semantiche presenti nel nostro cervello? C’è molta ricerca interessante da fare in questa direzione”.

Riferimenti: Scientific Reports

Articolo prodotto in collaborazione con il Master SGP di Sapienza Università di Roma

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here