Google a profité de sa keynote de printemps pour dévoiler ses nouveautés matérielles comme le Pixel 6a et sa Pixel Watch, mais aussi les améliorations de son moteur de recherche. Le géant américain veut profiter de la réalité augmentée pour éviter d'avoir à taper des mots-clés.


au sommaire


    Même si Google n'a pas franchement de concurrence dans le domaine de la recherche sur Internet, le géant américain continue d'améliorer ses algorithmes mais aussi ses fonctions. L'objectif, très clairement, est de nous aider à trouver des réponses sans forcément taper des mots dans un champ de recherche. Peut-être que, dans quelques années, la recherche textuelle aura même disparu puisqu'il suffira de parler ou de montrer une photo pour que GoogleGoogle nous aide.

    Par exemple, il existe déjà la recherche visuelle avec Google Lens. Pointer son smartphone vers un insecteinsecte, une fleur ou un vêtement suffit pour que l'intelligence artificielle se charge de l'identifier. Mardi, lors de sa keynote de printemps, Google a révélé que ce outil était utilisé 8 milliards de fois par mois !

    La fonction Scene exploration permet, en temps réel, de comparer différents éléments d'une même image pour trouver le bon produit. © Google
    La fonction Scene exploration permet, en temps réel, de comparer différents éléments d'une même image pour trouver le bon produit. © Google

    La recherche en réalité augmentée

    L'idée, désormais, est de combiner le meilleur des types de recherche (texte, voix, image, etc.) et ça porteporte le nom de « Multisearch ». Google donne l'exemple suivant : à l'aide de son smartphone, on utilise Google Lens pour identifier un plat, une robe ou une fleur. Google le reconnait. Puis, dans le champ de recherche, en saisissant « près de chez moi », Google donne l'endroit où l'on peut manger ce plat, ou s'offrir cette robe ou ces fleurs. Pour l'instant, c'est disponible en anglais, mais ce sera bientôt déployé dans d'autres langues, dont le français.

    L'autre nouveauté est ce que Google appelle « scene exploration ». On pourrait décrire cette fonction comme du Google Lens version grand angle. Dans l'exemple en photo donné ci-dessus, l'utilisateur balaie un étalage, comme s'il effectuait une photo en panoramique, et directement sur l'écran apparaissent les informations liées à chaque élément de la scène. C'est la réalité augmentée appliquée à la recherche.