Arriva il video-vocabolario

    Un video vocabolario hi-tech per il linguaggio dei segni, in cui è possibile risalire al significato di un gesto sconosciuto direttamente nella lingua desiderata, senza dover passare per la traduzione dall’inglese. Il complesso progetto è di Carol Neidle e Stan Sclaroff, i ricercatori dell’Università di Boston che, insieme a Vassilis Athistos dell’Università del Texas, stanno lavorando per realizzare questo speciale dizionario multimediale.

    Per sapere quale gesto corrisponde a una certa parola basta consultare uno dei classici dizionari delle lingue dei segni. Rari e di difficile consultazione sono invece i vocabolari che permettono di risalire da un gesto sconosciuto al significato corrispondente. Il problema nasce dalle difficoltà di catalogazione: mentre per i vocaboli si utilizza l’ordine alfabetico, i gesti sono ciascuno la combinazione di diverse variabili, dal numero delle dita impiegate alla direzione del movimento, e non sono quindi classificabili in base a un parametro unico.

    Su YouTube è ora possibile trovare una serie di gesti nella lingua dei segni americana, ma il significato è spiegato in lingua inglese. “È come fare una ricerca per un testo spagnolo utilizzando la traduzione delle parole in inglese”, commenta Scarloff: “È innaturale e crea non poche difficoltà”.

    Per utilizzare il nuovo dizionario basterà avere un computer dotato di webcam e un collegamento alla Rete. L’utente potrà selezionare da un videoclip un gesto di cui vuole conoscere il significato, oppure ripeterlo egli stesso di fronte alla telecamera: a quel punto si attiverà un motore di ricerca e sullo schermo appariranno (nella lingua richiesta) le cinque associazioni di significato più probabili.

    I ricercatori stanno ora sviluppando il sofisticato software che consentirà il riconoscimento dei movimenti: “Per la lingua dei segni siamo allo stesso punto in cui ci trovavamo venti anni fa per il linguaggio verbale ” avverte Thad Starner, del Georgia Institute of Technology che ha sviluppato un sistema di riconoscimento analogo a quello dei colleghi di Boston, ma basato sulla mediazione di microsensori del movimento. Incorporati in speciali guanti, i sensori fanno da tramite tra i gesti dei bambini non udenti e i personaggi di videogiochi, creati appositamente per facilitare l’apprendimento del linguaggio. In CopyCat, per esempio, il bambino può guidare il gatto Iris nel linguaggio dei segni; se il gesto è scorretto o confuso Iris si mostra perplesso, se invece è corretto il gatto scodinzola felice ed esegue il comando.  (l.d.p.)

    LASCIA UN COMMENTO

    Please enter your comment!
    Please enter your name here