Questo algoritmo si impegna a offrire la possibilità di tradurre la lingua dei segni tramite l’utilizzo esclusivo dello smartphone

Questo algoritmo si impegna a offrire la possibilità di tradurre la lingua dei segni tramite l’utilizzo

Il sistema migliorato da alcuni cervelloni di Mountain View è preciso e rapido, e soprattutto funziona grazie alla potenza di calcolo di un semplice smartphone e alle immagini catturate da una comune fotocamera. Al momento è in grado di riconoscere una manciata di gesti, ma potrebbe evolversi in un futuro non troppo lontano in un traduttore automatico per la lingua dei segni.

Tradurre la lingua dei segni nella parlata corrispondente rappresenta una sfida difficile per un sistema elettronico. Nel corso degli anni, alcuni cervelli pensanti hanno ideato dei sistemi speciali per farlo e, qualche tempo fa, giovani studenti italiani hanno sviluppato un prototipo di guanto promettente in tal senso. Tuttavia, una nuova gamma di algoritmi di intelligenza artificiale promette di svolgere lo stesso compito, utilizzando semplicemente una fotocamera senza necessità di alcun sensore particolare da indossare o da posizionare davanti a sé.

I creatori di questo strabiliante sistema sono degli ingegneri informatici di Google, esperti nel campo della visione artificiale, la tecnologia che permette a un software di riconoscere e interpretare le immagini che gli vengono presentate. In particolare, il sistema è stato ideato per identificare le mani e le dita di un individuo, tenendo traccia della loro posizione e inclinazione nello spazio e nel tempo. Non si tratta di una missione impossibile: già oggi i computer sono in grado di elaborare istantaneamente i vari fotogrammi che compongono i flussi video da analizzare. Tuttavia, gli algoritmi ideati utilizzano accorgimenti intelligenti che rendono possibili le operazioni anche con la potenza di calcolo limitata offerta dai comuni smartphone.

Il sistema è stato allenato con 30.000 immagini, sulle quali i ricercatori hanno marcato i 21 punti necessari al software per rilevare la posizione delle dita rispetto al palmo della mano. Successivamente, è stato programmato per incrociare i dati dei gesti rilevati con alcuni gesti universali, come ad esempio quello della vittoria, e quelli utilizzati per contare con le mani. Gli esiti, affermano i ricercatori, sono paragonabili ai migliori risultati ottenuti finora sui computer desktop. Gli algoritmi seguono il movimento addirittura di più mani contemporaneamente, operano in tempo reale e non perdono traccia neanche dei movimenti più minuti o veloci: tutto questo sfruttando semplicemente le componenti già presenti all’interno di un dispositivo che hai già in tasca.

LEGGI  Le festività del 2019, il disegno celebrativo natalizio di Google festeggia il suo ventesimo anniversario

Il prossimo passo potrebbe essere quello di perfezionare l’algoritmo affinché sia in grado di riconoscere i vocaboli della lingua dei segni e di dotarlo di un motore di sintesi vocale in grado di far pronunciare al telefono le parole rilevate. Raggiungere questo obiettivo richiederà tempo, ma considerata la precisione del sistema, è un traguardo sicuramente possibile da raggiungere. Nel frattempo, i ricercatori hanno reso disponibile il loro lavoro sotto forma di codice sorgente, affinché altri sviluppatori possano prendersene cura o costruirvi sopra nuovi prodotti e software.

Articolo originale: https://it.ign.com/google/186324/news/un-algoritmo-di-intelligenza-artificiale-riconosce-i-gestidella-lingua-dei-segni_ai-authored