Dans le but de développer des applications ludiques, Google améliore son intelligence artificielle liée au suivi de l’iris. Un procédé qui permet également d’adapter en temps réel la taille du texte en fonction de l’éloignement de l'utilisateur.


au sommaire


    Suivre la pupille de l'utilisateur en temps réel pour appliquer des effets en réalité augmentée ou adapter automatiquement l'affichage à sa vue selon son éloignement de l'écran, c'est l'un des travaux mené par GoogleGoogle autour de l’Intelligence artificielle. Le concept a été baptisé MediaPipe Iris et les résultats sont publiés sur le blog consacré à l'IAIA de la firme.

    En plus de parvenir à traquer la position de l'irisiris instantanément, les développeurs qui planchent sur ce sujet expliquent que, avec leur procédé, ils parviennent à déterminer la distance entre la caméra et l'œilœil de l'utilisateur, sans même exploiter un éventuel capteur de profondeur. Cela n'a l'airair de rien puisque les messageriesmessageries des réseaux sociauxréseaux sociaux proposent de nombreux stickersstickers animés en réalité augmentée qui s'incrustent en temps réel. Si l'effet ludique est bluffant, dans presque tous les cas, les dimensions ne sont pas appropriées et il y a des décalages.

    Dans le cas de MediaPipe Iris, Google cherche la précision avec un minimum d'équipement, c'est-à-dire, un simple capteurcapteur photo RVB dénué de système de relevé de profondeur. Le système exploite des repères sur l'iris qu'il va s'efforcer de suivre et d'analyser. Pour évaluer les proportions, l'IA s'appuie sur le diamètre de l'iris de l'œil humain. Celui-ci est à peu près de 11,7 mm avec une marge de plus ou moins 0,5 mm pour la plus grande partie de la population.

    Pas besoin de capteur de profondeur

    Ce procédé permet de déterminer la distance métrique entre le sujet et la caméra avec une erreur relative inférieure à 10 %. Pour le moment, le taux d'erreur est plus important pour les porteurs de lunettes.

    Les travaux menés sont une extension de ce que Google avait déjà réalisé avec MediaPipe Face Mesh, un système capable de modéliser en 3D le visage en temps réel sans matériel particulier autre qu'un seul capteur RVB.

    Dans son billet, Google tient à préciser que le suivi de l'iris ne permet pas de déduire l'endroit où les gens regardent et qu'il ne participe aucunement à la reconnaissance d'identité. Le système est conçu avant tout afin de développer des applicationsapplications ludiques ou pratiques, comme d'adapter automatiquement la taille des caractères à l'éloignement de l'écran. Il est capable de fonctionner sur la plupart des téléphones mobilesmobiles, ordinateurs et même via un navigateur Web.