Il robot che fa le smorfie per aiutare i medici a riconoscere il dolore

Mamma, il robot fa le smorfie. Succede all’Università della California di San Diego, negli Stati Uniti, dove dei ricercatori sono riusciti a dare a una faccia robotica la facoltà di riprodurre le espressioni di panico, disgusto e rabbia. Con un obiettivo molto interessante: aiutare i medici a comprendere meglio i cambiamenti d’animo che attraversano il volto delle persone e così riconoscere il dolore. Una capacità tutt’altro che scontata e che, in ultima analisi, permetterebbe di migliorare le diagnosi.

Come sottolinea New Scientist, molti dottori utilizzano già i robot per allenarsi a praticare manovre d’intervento e per testare le loro abilità diagnostiche. “Questi robot possono sanguinare, respirare e reagire al trattamento”, ha detto Laurel Riek dell’Università della California di San Diego e una delle responsabili del progetto: “Sono incredibili, ma c’è una grande pecca nel loro design: la loro faccia“. E interpretare le espressioni facciali del paziente, continua Riek, può aiutare a determinare se stanno avendo un infarto, se stanno soffrendo o reagendo a un determinato trattamento. Ecco perché i medici dovrebbero essere capaci di analizzare tutte le espressioni di un paziente dall’inizio della loro professione. Sembrerebbe ovvio ma in realtà, al momento, pare che non sia affatto così.

In preparazione a una prova che si farà a fine anno in una scuola medica, infatti, i ricercatori hanno testato quanto bene le persone riescano a riconoscere le espressioni facciali di un robot e di un avatar virtuale, da utilizzare in alternativa. I video del robot e dell’avatar sono stati mostrati a 102 volontari che hanno dovuto stabilire quale emozione corrispondesse a quale espressione. La metà dei partecipanti era composta da personale clinico, come dottori, infermieri e farmacisti. Mentre l’altra metà non aveva alcun background medico. Analizzando i risultati i clinici si sono rivelati meno accurati degli altri nel riconoscere sia il dolore che la rabbia. In particolare, i dottori hanno identificato la sofferenza espressa dall’avatar virtuale solo il 54 per cento delle volte, mentre i non dottori ci sono riusciti nell’83 per cento dei casi.

Il robot usato si chiama Philip K. Dick della Hanson Robotics, concepito nel 2004 come un omaggio al noto scrittore statunitense di fantascienza e frutto del lavoro collettivo di disegnatori, programmatori, ingegneri, designer, e letterati. Il Philip Dick fatto di chip ha una pelle di gomma che può muovere in modo da ‘fare smorfie’ molto realistiche, quasi umane. Per allenarlo, i ricercatori hanno collezionato video di persone che stavano esprimendo dolore, disgusto o rabbia e hanno usato un software di tracciamento facciale per convertire le espressioni in una serie di spostamenti sulla faccia del robot.

Il robot Philip K.Dick (Credit: hansonrobotics)

In realtà, però, non è la prima volta che gli scienziati riescono a mettere a punto un androide con caratteristiche simili. Un esempio ce l’abbiamo proprio qui, in Italia. Si chiama Face ed è stato perfezionato nel 2012 nei laboratori dell’Università di Pisa da un team del Centro “E. Piaggio”. “La faccia del robot è stata costruita da un artista statunitense, David Hanson”, spiega a Galileo Daniele Mazzei, ricercatore dell’Università di Pisa e uno dei creatori di Face: “Si tratta di una maschera di silicone, dentro cui si trovano numerosi tendini che sono collegati in modo simile a quanto accade nell’anatomia umana. Non solo, abbiamo sviluppato un software d’intelligenza artificiale che guida questi motori per fare espressioni facciali nel continuo, cioè non riproduce solo la felicità e la paura. Ma anche tutto ciò che c’è nel mezzo”.

Face (Credit: Università di Pisa)

All’inizio Face è stato usato per capire le possibilità d’impiegare questo tipo di robot, come strumenti ausiliari, nelle terapie destinate ai bimbi autistici. “Abbiamo scoperto che soggetti con sindrome dello spettro autistico accettano molto bene l’interazione con questi robot e, in genere, sono ottimi da sfruttare per allenare a comprendere le espressioni facciali”, conclude Mazzei. Oggi l’androide ha anche un busto e delle braccia. E viene utilizzato per studiare l’interazione uomo/macchina dal punto di vista affettivo.

Rosita Rijtano

Giornalista. Dal 2013 collabora con Repubblica, dove scrive soprattutto di tecnologia e scienza, e co-cura un blog sul cyberbullismo. Esaurita dal lavoro da remoto, ha chiesto asilo politico alla redazione di Galileo.

Articoli recenti

Uno dei più misteriosi manoscritti medioevali potrebbe essere stato finalmente decifrato

Secondo gli autori di un recente studio potrebbe contenere informazioni sul sesso e sul concepimento,…

2 giorni fa

Ripresa la comunicazione con la sonda Voyager 1

Dopo il segnale incomprensibile, gli scienziati hanno riparato il danno a uno dei computer di…

4 giorni fa

Atrofia muscolare spinale, ampliati i criteri di rimborsabilità della terapia genica

L’Aifa ha approvato l’estensione della rimborsabilità del trattamento, che era già stato approvato per l'atrofia…

5 giorni fa

Così i tardigradi combattono gli effetti delle radiazioni

Resistono alle radiazioni potenziando la loro capacità di riparare i danni al dna. Piccolo aggiornamento…

6 giorni fa

Leptospirosi: perché crescono i casi a New York?

Mai così tanti casi di leptospirosi in un anno dal 2001: a contribuire all’aumento delle…

1 settimana fa

Fogli d’oro sottilissimi: arriva il goldene

Potrebbe essere usato in diverse applicazioni come catalizzatore per la conversione dell'anidride carbonica e la…

2 settimane fa

Questo sito o gli strumenti di terze parti in esso integrati trattano dati personali (es. dati di navigazione o indirizzi IP) e fanno uso di cookie o altri identificatori necessari per il funzionamento e per il raggiungimento delle finalità descritte nella cookie policy.

Leggi di più