Des scientifiques ont créé une application pour Google Glass, Captioning on Glass, qui affiche devant les yeux ce que dit un interlocuteur. Conçue pour les malentendants, elle pourrait servir à traduire en direct.
Cela vous intéressera aussi

Des chercheurs du Georgia Institute of Technology ont développé une idée d'applicationapplication ingénieuse pour les lunettes connectées de Google adaptée aux personnes ayant des problèmes d'audition : elle sous-titre simultanément les conversations. Ce projet pourrait non seulement venir en aide aux personnes malentendantes, mais aussi à celles qui essaient d'avoir une conversation dans un lieu très bruyant ou à n'importe quel téléspectateur ayant du mal à comprendre des acteurs qui marmonnent dans un film.

L'application gratuite, appelée Captioning on Glass, s'appuie sur la reconnaissance vocalereconnaissance vocale incluse dans les téléphones AndroidAndroid, tout en éliminant l'un des gros défauts des Google Glass, à savoir la mauvaise qualité de son micro intégré aux branches de lunettes. L'outil, en effet, transforme le smartphonesmartphone de l'utilisateur en récepteur sonore. Le principe a deux avantages : un meilleur microphone et le fait que celui-ci peut être placé plus près de la personne qui s'exprime.

Le locuteur (à droite) parle en utilisant le téléphone du porteur de lunettes (à gauche), lequel voit s'afficher devant ses yeux le texte prononcé. © <em>Georgia Tech</em>

Le locuteur (à droite) parle en utilisant le téléphone du porteur de lunettes (à gauche), lequel voit s'afficher devant ses yeux le texte prononcé. © Georgia Tech

Et pourquoi pas la traduction dans les Google Glass ?

Pour utiliser cette application (pour l'instant disponible uniquement en anglais), il suffit de dire « OK Glass, recognize this » (« OK Glass, reconnais ça ») et de tenir son smartphone près de la personne à laquelle on parle pour que la transcriptiontranscription des paroles apparaisse sur l'affichage de ses lunettes.

« Ce système permet de se concentrer sur les mouvementsmouvements du visage et les gestes de leur interlocuteur, a confié à CNet le professeur Jim Foley, l'un des participants au projet. Si les personnes dures d'oreille comprennent l'énoncé, la conversation peut se poursuivre sans avoir à attendre le sous-titre. Cependant, si j'ai raté un mot je peux jeter un œilœil à la transcription, lire un ou deux mots dont j'ai besoin, et retourner à ma conversation. »

À terme, l'équipe de chercheurs aimerait aller plus loin que la simple retranscription de conversation en incorporant aussi de la traduction en simultané. En attendant, on peut télécharger cette application de sous-titrage seulement en anglais sur le site Glass Google.