Non vedenti, una app indica la direzione all’interno di un edificio

non vedenti
(Foto: Matt Seymour su Unsplash)

Muoversi in autonomia all’interno di un edificio mai esplorato in precedenza. Per i non vedenti può essere un percorso ricco di ostacoli, soprattutto in assenza di ausili e indicazioni destinate a questa categoria di persone. Ora però un gruppo di ricercatori guidati da Roberto Manduchi, docente di Informatica e Ingegneria presso l’Università di Santa Cruz e membro del board del Vista Center for the Blind & Visually Impaired a Palo Alto, in California, ha messo a punto un sistema digitale in grado di guidare una persona non vedente all’interno dei corridoi di un edificio. Basta uno smartphone, da tenere in tasca, e uno smartwatch al polso.

Alla base del progetto, finanziato dai National Institutes of health, ci sono due app, Wayfinding e Backtracking. La prima ha conoscenza della pianta dell’edificio da navigare, e sa calcolare il percorso più breve per raggiungere la destinazione. La seconda guida l’utente a ripercorrere all’indietro lo stesso tragitto fino a raggiungere il punto di partenza. Le indicazioni sono fornite tramite la sintesi vocale dello smartwatch, consentendo all’utente di tenere lo smartphone in tasca e avere entrambe le mani libere.

Le due app – al momento sperimentali e non disponibili al pubblico – sono state testate sul campo con sette partecipanti non vedenti che le hanno utilizzate per navigare nei corridoi di un edificio. I risultati indicano che entrambe sono efficaci per il loro scopo. Abbiamo chiesto a Manduchi alcuni dettagli della sua ricerca.

Professor Manduchi, da dove viene l’idea di questo sistema di navigazione indoor?

“Prima di insegnare all’Università di Santa Cruz ho lavorato al Jet Propulsion Laboratory (JPL) della NASA, occupandomi in particolare di computer vision applicata alla robotica militare. Tuttavia ero interessato soprattutto alle possibili applicazioni di rilevanza sociale di questi sistemi, in particolare nella disabilità. L’idea era che le stesse tecniche che rendono “vedente” un robot potessero essere utilizzate come supporto per le persone non vedenti”.

Oggi in che modo i non vedenti possono muoversi all’interno di un edificio?

“Ci sono due tipi di sistemi per navigazione indoor: quelli che utilizzano infrastrutture specializzate, tipo Bluetooth Low Energy, o BLE, e quelli che invece usano solo sensori portati dall’utente. Il primo tipo funziona abbastanza bene, ma in generale non è sostenibile, a causa dei costi di installazione e mantenimento dell’infrastruttura. Nei sistemi del secondo tipo, si possono utilizzare sensori come telecamere e Lidar che, con algoritmi tipo SLAM, (Simultaneous Localization And Mapping) sono in grado di mantenere la localizzazione dell’utente con buona precisione sempre che la mappa dell’edificio sia disponibile. Gli algoritmi SLAM sono utilizzati in robotica e in applicazioni di navigazione per stimare la posizione di un robot (localizzazione) mentre simultaneamente costruiscono una mappa dell’ambiente in cui si trova (mappatura). Questi sensori, però, anche se possono essere integrati in uno smartphone, non sono la soluzione ideale. Un utente cieco di solito ha già una mano occupata dal bastone bianco o dal cane guida, e tenere lo smartphone con l’altra mano – di modo che la camera abbia una buona vista dell’ambiente – ne rende l’uso difficile”.

Rispetto a queste soluzioni, quali sono i vantaggi del vostro sistema?

“Il nostro sistema usa solo i sensori inerziali: l’accelerometro e il giroscopio integrati in uno smartphone. Così l’utente può tenere lo smartphone in tasca mentre cammina. Ciò rende la nostra soluzione ergonomicamente conveniente. Il tutto senza problemi di privacy, visto che gli algoritmi sono locali – tutto resta all’interno dello smartphone”.

Il vostro sistema funziona anche se la mappa dell’edificio non è disponibile?

“Sì. In questo caso Backtracking, memorizzando il tragitto all’andata, è in grado di guidare l’utente a ripercorrere lo stesso tragitto in senso inverso. Questo può essere utile, per esempio, quando l’utente sia stato accompagnato all’interno di un ospedale sino allo studio di un medico e, successivamente, debba o voglia ritornare da solo al punto di partenza. La sala d’aspetto ad esempio”.

Le sue ricerche in questo campo sono iniziate molti anni fa. Quali sono le sfide principali che ha dovuto affrontare durante il processo di sviluppo e implementazione?

“La sfida più grossa da affrontare non è stata di tipo tecnologico. Spesso, il motivo di tanti progetti falliti non risiede nella scelta della tecnologia, ma nell’aver selezionato il problema sbagliato da affrontare. Noi ingegneri, di solito, partiamo dalla tecnologia per poi cercare le applicazioni. Detto in altra forma: creiamo soluzioni alla ricerca di un problema. Questo era anche il mio approccio quando ho cominciato a lavorare in questo campo”.

Qual è stato invece l’approccio vincente?

“Mi sono accorto che invece bisogna cominciare dall’altra parte, ovvero dall’utente. Purtroppo abbiamo in genere un’idea scorretta o parziale della cecità, di come vivono i non vedenti, di quello che possono fare e delle loro difficoltà. Di cosa potrebbe essere veramente utile per loro. Ci vuole una certa dose di umiltà, e pazienza. È necessario passare parecchio tempo a parlare con i potenziali utenti della tua tecnologia. In questi anni mi sono fatto molti amici nella comunità dei ciechi che vivono a Santa Cruz, a Palo Alto e a San Francisco. Discutendo con loro, ho cercato di individuare i problemi più pressanti nella loro vita quotidiana, e di identificare le tecnologie che possono essere usate per risolvere o alleviare questi problemi”.

Quali ricerche sta portando avanti ora il suo team?

“Un’altra direzione di ricerca di cui mi sto occupando con il mio gruppo è la generazione automatica di mappe tattili di ambienti indoor, sia su carta sia con sistemi vibro-tattili per tablet. Grazie a questo progetto, anche questo finanziato dagli NIH, e alla collaborazione con Nick Giudice, professore non vedente dell’Università del Maine, gli utenti ciechi potranno ‘esplorare’ l’ambiente prima di visitarlo”.

Quali potrebbero essere gli sviluppi futuri delle ricerche in aiuto ai non vedenti?

“Un aspetto da migliorare è senz’altro l’interfaccia con l’utente. I sistemi attuali, incluso il nostro, derivano dal paradigma “turn-by-turn” utilizzato dai sistemi di navigazione per veicoli. I sistemi turn-by-turn forniscono istruzioni chiare e specifiche su quando e dove svoltare durante un percorso, con comandi del tipo: “svolta a sinistra”, “svolta a destra” o “continua dritto”. Io credo che sia possibile pensare a un nuovo tipo di comunicazione con l’utente, aiutandolo non solo a raggiungere la destinazione, ma anche a memorizzare il tragitto percorso, creando una “mappa spaziale” dell’ambiente. Ciò consentirebbe di ridurre la dipendenza dall’applicazione. Ma penso anche al possibile impiego delle wearable camera – le telecamere integrate negli smart glasses già sul mercato. Nel momento in cui diventeranno di uso comune, integrate ai sensori inerziali – utilizzati ad esempio dalla nostra applicazione wayfinding, e agli algoritmi visual SLAM – potranno produrre una localizzazione molto accurata”.

Foto: Matt Seymour su Unsplash