C'est en plaçant des repères sur l'iris que l'IA parvient à déterminer à la fois sa position et également l'éloignement face au capteur. © Google
Tech

Maintenant, Google adapte automatiquement la taille du texte à l’éloignement de l’écran

ActualitéClassé sous :intelligence artificielle , l'iris de l'œil , iris

Dans le but de développer des applications ludiques, Google améliore son intelligence artificielle liée au suivi de l'iris. Un procédé qui permet également d'adapter en temps réel la taille du texte en fonction de l'éloignement de l'utilisateur.

Suivre la pupille de l'utilisateur en temps réel pour appliquer des effets en réalité augmentée ou adapter automatiquement l'affichage à sa vue selon son éloignement de l'écran, c'est l'un des travaux mené par Google autour de l’Intelligence artificielle. Le concept a été baptisé MediaPipe Iris et les résultats sont publiés sur le blog consacré à l'IA de la firme.

En plus de parvenir à traquer la position de l'iris instantanément, les développeurs qui planchent sur ce sujet expliquent que, avec leur procédé, ils parviennent à déterminer la distance entre la caméra et l'œil de l'utilisateur, sans même exploiter un éventuel capteur de profondeur. Cela n'a l'air de rien puisque les messageries des réseaux sociaux proposent de nombreux stickers animés en réalité augmentée qui s'incrustent en temps réel. Si l'effet ludique est bluffant, dans presque tous les cas, les dimensions ne sont pas appropriées et il y a des décalages.

Dans le cas de MediaPipe Iris, Google cherche la précision avec un minimum d'équipement, c'est-à-dire, un simple capteur photo RVB dénué de système de relevé de profondeur. Le système exploite des repères sur l'iris qu'il va s'efforcer de suivre et d'analyser. Pour évaluer les proportions, l'IA s'appuie sur le diamètre de l'iris de l'œil humain. Celui-ci est à peu près de 11,7 mm avec une marge de plus ou moins 0,5 mm pour la plus grande partie de la population.

Pas besoin de capteur de profondeur

Ce procédé permet de déterminer la distance métrique entre le sujet et la caméra avec une erreur relative inférieure à 10 %. Pour le moment, le taux d'erreur est plus important pour les porteurs de lunettes.

Les travaux menés sont une extension de ce que Google avait déjà réalisé avec MediaPipe Face Mesh, un système capable de modéliser en 3D le visage en temps réel sans matériel particulier autre qu'un seul capteur RVB.

Dans son billet, Google tient à préciser que le suivi de l'iris ne permet pas de déduire l'endroit où les gens regardent et qu'il ne participe aucunement à la reconnaissance d'identité. Le système est conçu avant tout afin de développer des applications ludiques ou pratiques, comme d'adapter automatiquement la taille des caractères à l'éloignement de l'écran. Il est capable de fonctionner sur la plupart des téléphones mobiles, ordinateurs et même via un navigateur Web.

Cela vous intéressera aussi
Abonnez-vous à la lettre d'information La quotidienne : nos dernières actualités du jour. Toutes nos lettres d’information

!

Merci pour votre inscription.
Heureux de vous compter parmi nos lecteurs !