au sommaire


    Si les intelligences artificiellesintelligences artificielles (IA) hallucinent de moins en moins, c'est toujours le cas dans certaines situations. C'est la mésaventure qui vient d'arriver à Google avec sa nouvelle fonction AI Overviews. Toujours en phase de test, elle est censée faire une synthèse des résultats d'une recherche grâce à son IA. Le module s'affiche au-dessus des résultats traditionnels et devrait permettre d'obtenir un résumé du contenu des liens les plus pertinents sur un sujet.

    Mais voilà, l'outil peut conseiller d'étranges et dangereuses pratiques, comme manger des cailloux pour faire le plein de minérauxminéraux, ou bien fumer des cigarettes durant la grossessegrossesse ou encore ajouter de la colle pour faire une pizza.

    Exemple de test lors duquel l'AI Overviews hallucine en proposant de manger des cailloux. 

    Des requêtes hallucinantes

    Les requêtesrequêtes employées pour faire ressortir ces résultats étaient certes « tordues », mais l'IA a tout de même démontré ses faiblesses en la matièrematière. C'est d'ailleurs la ligne de défense de GoogleGoogle qui n'a pas toujours été capable de reproduire les résultats « hallucinés ». Cette affaire a contraint la société à désactiver l'outil pour certains types de recherche qui pourraient générer ce genre de résultat.

    Il faut dire qu'avec la pressionpression de la concurrence, Google a déployé des outils qui n'étaient pas forcément toujours au point, ce qui a engendré des moqueries et entaché durablement sa réputation en matière d'IA. Un acharnement qui n'est pas forcément juste, au regard de la qualité de certains de ses produits d'IA générative.

    Logo WhatsApp

    Suivez Futura sur WhatsApp et Google Actualités
    pour ne rien rater de l’actualité sciences & tech !

    Logo Google Actualités