Il computer che decifra il sorriso

Di frustrazione si sorride. A rivelarlo è un sistema di analisi digitale messo a punto dai ricercatori dellAffective Computing Group del Mit Media Lab capace di determinare l’emozione che sta dietro un sorriso meglio di quanto saprebbe fare un essere umano. L’obiettivo a lungo termine dello studio, pubblicato su Ieee Transaction on Affective Computing, è costruire dispositivi in grado di valutare lo stato emotivo dell’utente; inoltre la ricerca potrebbe anche aiutare quanti hanno difficoltà a interpretare le espressioni dei propri interlocutori, come ad esempio le persone affette da sindrome dello spettro autistico.

Per prima cosa gli scienziati hanno raccolto un database di immagini di sorrisi sia spontanei sia recitati di frustrazione e di gioia. Inizialmente, infatti, i ricercatori hanno chiesto ad alcuni volontari, filmati da una videocamera, di simulare espressioni relative a queste due emozioni; poi fatto in modo di suscitare realmente questi sentimenti nei volontari, costringendoli a compilare inutilmente un lungo questionario al computer per suscitare frustrazione e mostrando loro il video di un bambino per carpire un sorriso di gioia (guarda il video). 

L’analisi delle immagini ha mostrato che nel recitare l’espressione di frustrazione il 90 per cento dei volontari non aveva sorriso, cosa che invece aveva fatto al momento di provare realmente questa emozione. Inoltre, esaminando al computer i video relativi alle emozioni spontanee, i ricercatori hanno notato una differenza tra i due sorrisi: mentre il sorriso felice si formava gradualmente, quello irritato aveva una velocità molto più repentina. Basandosi su questa differenza di tempistica gli scienziati del Mit hanno messo a punto il loro sistema di analisi.

Finora, racconta Ehsan Hoque, coautore dello studio, gli scienziati che hanno condotto studi di questo tipo si sono basati solo sull’analisi di espressioni simulate, ma questo può portare a risultati fuorvianti. “I dati simulati sono molto più facili da classificare”, spiega Hoque, “ma quando un essere umano prova a interpretare espressioni reali, riesce a valutarle correttamente solo il 50 per cento delle volte”. Usando il loro sistema digitale basato sull’analisi della tempistica e della morfologia dell’espressione, i ricercatori hanno invece identificato la giusta espressione nel 92 per cento dei casi.

Oltre alle applicazioni nel campo della medicina, dell’informatica comportamentale e dell’intelligenza artificiale, questa scoperta potrebbe aprire la strada a nuove strategie di marketing diretto, sostiene Hoque: “Il fatto che un cliente sorrida non vuol dire che è soddisfatto. E conoscere le differenze, da parte di un venditore, potrebbe essere importante per assumere l’atteggiamento più consono possibile”.

Riferimenti: Ieee Transaction on Affective Computing doi.ieeecomputersociety.org/10.1109/T-AFFC.2012.11 

Credit immagine a Daniela Vladimirova / Flickr

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here