Il computer che legge il linguaggio del corpo

linguaggio
(Credit: Carnegie Mellon University)
carnegie
(Credit: Carnegie Mellon University)

Una struttura a forma di geoide (che da fuori sembra un grosso pallone da calcio), che permette ad un computer di riconoscere le azioni ed il linguaggio del corpo delle persone che vi entrano, e che potrà aiutare i robot ad interagire con gli esseri umani nelle situazioni reali. È questo lo strumento che sono riusciti a mettere a punto alcuni ricercatori dell’Istituto di robotica alla Carnegie Mellon University in Pennsylvania, guidati da Yaser Sheikh, che presenteranno il loro lavoro in occasione del CVPR 2017, il Computer Vision and Pattern Recognition Conference che si chiude oggi a Honolulu.

La comunicazione tra esseri umani si basa in larga parte anche sull’utilizzo di linguaggi di tipo non verbale, che i computer faticano molto a percepire ed analizzare, rendendo difficoltose le interazioni con persone “in carne ed ossa”. Questo problema è stato in larga parte superato dai ricercatori grazie all’utilizzo di Panoptic studio, un sistema modulare a forma di geoide studiato appositamente per analizzare le interazioni sociali tra individui.

La camera è attrezzata con 500 videocamere, alcune delle quali ad alta risoluzione, e diversi rilevatori di movimento. L’approccio di Sheikh e colleghi si basa sulla localizzazione delle singole parti del corpo e sulla successiva integrazione delle informazioni ottenute da camere ed angolazioni differenti, consentendo la creazione di ricostruzioni 3D molto precise. Il sistema messo a punto permette anche lo studio di più persone contemporaneamente, e risulta quindi adatto anche a contesti propriamente sociali.

Per comprendere al meglio la comunicazione non verbale risulta molto importante anche riuscire a determinare la posizione delle mani e di ogni singolo dito, poiché esse possono essere utilizzate per impugnare oggetti ed hanno un ruolo fondamentale nella gestualità. Tuttavia non esistono dati a riguardo, come ad esempio per il viso, e risulta dunque difficile confrontare i risultati ottenuti con altri già presenti; inoltre, è complicato avere una visione contemporanea di tutte le parti della mano. I ricercatori sono riusciti a superare queste difficoltà utilizzando un gran numero di videocamere distribuite su 360°, e grazie all’alta risoluzione consentita da alcune di esse.

Rivelare le implicazioni della comunicazione non verbale permetterà ai robot di percepire ciò che le persone intorno a loro stanno facendo, il loro stato d’animo, e sulla base di questo capire se sia possibile interagire o meno con loro. Questa abilità, per esempio, potrebbe aiutare una automobile che si guida da sola ad avvertire la presenza di un pedone che sta attraversando la strada e fermarsi in tempo. Ma rendere le macchine capaci di interpretare il comportamento umano potrebbe in futuro avere importanti applicazioni anche per effettuare diagnosi comportamentali e riabilitazione di condizioni come l’autismo, la depressione, o la dislessia.

Riferimenti: Carnagie Mellon University

Articolo prodotto in collaborazione con il Master in Giornalismo e comunicazione istituzionale della scienza dell’Università di Ferrara

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here