Home Robot Una particolare mano robot interpreta il linguaggio dei segni

Una particolare mano robot interpreta il linguaggio dei segni

by Huro
mano robot

Una squadra dell’Università di Anversa sta sviluppando una mano robot che interpreti il linguaggio dei segni.
La prima versione della mano robotizzata, denominata Project Aslan è per lo più stampata in 3D. Questa è in grado di tradurre i testi in fingerspelling. Ma l’obiettivo finale del team è costruire un robot a due braccia con un viso espressivo. Questo al fine di decifrare completamente la piena complessità del linguaggio dei segni.

I gesti del robot vengono programmati attraverso un guanto elettronico. Il progetto che si svolge in collaborazione con 3D Hubs invece mira a creare una versione del robot a due braccia. Questo perché attualmente la mano robotizzata è collegata ad un computer che a sua volta è connesso ad una rete.

Gli utenti possono connettersi alla rete locale ed inviare messaggi di testo ad Aslan. La mano robot in tempo reale inizia a gesticolare freneticamente, utilizzando un sistema alfabetico chiamato fingerspelling. In pratica ogni singola lettera viene comunicata attraverso un gesto separato.

Come funziona la mano robot che interpreta il linguaggio dei segni?

In quanto alle caratteristiche tecniche, Aslan è composto da 25 parti di plastica stampate in 3D da una stampante desktop entry-level, da oltre 16 servomotori, tre controller, un microcomputer Arduino due ed altri componenti elettronici.

Per assemblare il robot ci vogliono circa 10 ore. Mentre per stampare le varie parti in plastica occorrono circa 139 ore. La produzione viene gestita attraverso una rete di stampa 3D globale denominata 3D Hub, progettata per garantire la realizzazione del robot da qualsiasi posto. Scelta che non è stata fatta per sostituire gli umani, ma per dare un’opportunità in più ai non udenti anche in situazioni in cui l’aiuto umano non è disponibile.

La versione attuale di Aslan può tradurre i testi solo in segni di fingerspelling. Ma il team continua a lavorare per sviluppare una versione futura in grado di approfondire ogni sfumatura, per rendere ancor più efficiente e naturale il robot. Nel linguaggio dei segni infatti il significato di quello che si cerca di comunicare viene trasmesso attraverso una combinazione di gesti delle mani, postura del corpo ed espressioni facciali. Per questo motivo i ricercatori vogliono sviluppare un robot a due braccia ed in futuro dare anche un volto ad Aslan.

Inoltre, il gruppo di ricercatori sta sperimentando anche una nuova applicazione che riguarda la traduzione delle parole pronunciate nel linguaggio dei segni e l’utilizzo di una webcam, per rilevare le espressioni facciali ed insegnare al robot nuovi gesti che attualmente sono eseguiti attraverso il guanto elettronico.

Consigliati per te

Lascia un Commento