La mano robot che si muove col pensiero

    Accendere e spegnere le luci con il pensiero e regolare, semplicemente immaginandolo, la temperatura di una stanza. Si chiama domotica ed è la disciplina che si occupa dell’interazione macchina-essere umano applicata ai dispositivi elettrici della casa. Non solo: è lo stesso campo di ricerca che ha portato alla realizzazione della prima mano robotica mossa dal pensiero.

    Compiere un’azione o immaginarla non è poi così diverso per il nostro cervello. Quel che conta è che le onde cerebrali siano riconosciute da un software: i segnali elettrici generati dal cervello si traducono allora in una serie di messaggi precisi che diventano ordini per regolare la spalliera di un letto, come per far muovere un robot.

    La prima mano robotica in grado di compiere movimenti complessi immaginati da un individuo è stata presentata durante il convegno Neuromath come la tecnologia più avanzata a livello mondiale in fatto di arti artificiali. Il convegno si è svolto nell’ambito del programma europeo Cost che ha finanziato in parte l’arto robotico ed è coordinato da Fabio Babiloni, docente di Fisiologia presso l’Università Sapienza di Roma.

    La mano è stata costruita in seno al progetto Cyberhand guidato da Maria Chiara Carrozza, direttrice della Scuola Superiore Sant’Anna di Pisa e docente di bioingegneria industriale, mentre gli studi di decodifica dei segnali cerebrali si sono svolti nel laboratorio di Imaging Neuroelettrico (NeiLab) dell’Istituto Santa Lucia di Roma, coordinati dal direttore del dipartimento di Neuroscienze dell’Università Tor Vergata Maria Grazia Marciani e da Donatella Mattia della Fondazione Santa Lucia.

    <

    L’Italia è ai primi posti quanto a programmi su tecnologie di interfaccia cervello-computer e la mano robotica è solo l’ultima dimostrazione del punto in cui queste ricerche sono arrivate. “Presso l’Istituto Santa Lucia sono attivi da molti anni progetti sull’impiego di queste tecnologie per il controllo di carrozzine automatizzate e dispositivi elettronici”, spiega Fabio Babiloni: “I ricercatori registrano l’elettroencefalogramma di un soggetto che, per esempio, abbassa un dito; stimano l’attività a livello della corteccia ed estraggono degli indici di funzionamento cerebrale che variano nel tempo man mano che il movimento viene effettuato. A questo punto si divide la corteccia in zone (aree di Brodmann) e si valuta il traffico dei segnali elettrici. Possiamo immaginare il flusso di informazioni come telefonate in entrata e in uscita”.

    L’obiettivo è infatti quello di vedere quali zone si attivano durante l’esecuzione di un movimento e valutare come ‘parlano’ tra loro. È a questo livello che tra agire e immaginare ci sono solo lievissime differenze, perché si attivano le stesse aree e i quadri di relazione (pattern) tra le singole parti sono più o meno gli stessi.

    Il passaggio successivo è quello di addestrare il computer a riconoscere questi pattern, tarandolo sul soggetto. Gli schemi possono infatti variare da individuo e individuo: un po’ come accade con i programmi di riconoscimento vocale, il calcolatore deve essere tarato sullo schema generato per ogni singolo movimento da un particolare soggetto. “Rispetto al riconoscimento vocale, qui ci troviamo a stadi molto meno avanzati”, commenta Babiloni, “ma, analogamente, la difficoltà sta nel tarare il computer sulle varie ‘tonalità’ che possono essere generate. L’importante è che gli schemi siano sufficientemente stabili”.

    Una volta superato questo ostacolo è possibile far interagire il soggetto con diversi dispositivi elettronici purché collegati al computer. Uno degli scopi è certamente quello di creare ausili sempre più efficienti per persone con disabilità motorie e renderle in grado di guidare dispositivi o interagire con gli ambienti. Ma è ovviamente una tecnologia che interessa anche le persone senza alcun tipo di disabilità, che potrebbero avere una capacità ulteriore di interagire con ambienti automatizzati. “Ci sono stati due progetti europei che hanno sponsorizzato la mano robotica, e altri due che ci hanno permesso di decodificare efficientemente le onde cerebrali per farla muovere”, continua Babiloni: “La principale difficoltà sta ora nel generare dei programmi che possano essere validi per un largo numero di persone, ma questo richiede un impegno in termini di risorse umane e di investimenti che in questo momento non è possibile sostenere senza un adeguato supporto.” Altro passo importante sarà quello di realizzare un sistema meno scomodo per rilevare l’elettroencefalogramma, che non sia indossare una cuffia con elettrodi.

    Secondo i ricercatori, per uscire dalla fase di sperimentazione e creare arti artificiali funzionanti ‘montabili’ sugli esseri umani serviranno ancora tra i cinque e i dieci anni. Intanto ci sono già degli accordi con la ditta islandese Ossur che ha realizzato le gambe del quattrocentometrista paraolimpionico Oscar Pistorius.

    LASCIA UN COMMENTO

    Please enter your comment!
    Please enter your name here