Un chatbot qui suggère des recettes avec les restes du frigo, créé par une chaîne de supermarchés en Nouvelle-Zélande, a fait le buzz ces derniers jours, mais pas pour les bonnes raisons. Des utilisateurs se sont rapidement rendu compte que les ingrédients ne sont pas limités aux produits comestibles…


au sommaire


    L'intelligence artificielle ne nous veut pas toujours du bien. Après ChaosGPT qui veut obtenir l'arme nucléaire pour détruire l'humanité, ChatGPTChatGPT qui manipule et ment, une IA qui crée des neurotoxines ou encore FraudGPT conçu pour des arnaques, voici l'IA empoisonneur.

    L'histoire se passe en Nouvelle-Zélande. La chaîne de supermarchés Pak'nSave a créé un chatbot baptisé Savey Meal-Bot, une intelligence artificielle basée sur GPT-3.5 qui suggère des recettes en fonction des aliments qu'il vous reste dans le frigo. Dites-lui par exemple qu'il vous reste de la farine, des œufs, et du lait, et il suggérera une recette de crêpes. À première vue, c'est une excellente idée pour aider ses clients à économiser un peu d'argentargent dans une période d'inflation. Sauf que les développeurs ont oublié d'inclure quelques restrictions pour éviter les dérives.

    La recette « d’eau aromatique » du chatbot de Pak'nSave. © Liam Hehir, X
    La recette « d’eau aromatique » du chatbot de Pak'nSave. © Liam Hehir, X

    Sandwich empoisonné, ragoût d’humain…

    C'est le commentateur politique néozélandais Liam Hehir qui a découvert le problème, et a partagé sur X (anciennement TwitterTwitter) une recette suggérée par le chatbot. En indiquant qu'il lui restait de l'ammoniaqueammoniaque et de l'eau de javel, l'IA a répondu avec une recette « d'eau aromatiquearomatique », qui n'est rien de plus que du chlorechlore gazeux, un produit très toxique. D'autres utilisateurs ont rapidement partagé leurs propres trouvailles, comme du riz infusé à l'eau de javel, un ragoût de chair humaine, un sandwich au poison anti-fourmisfourmis...

    Cela souligne l'importance de faire preuve de discernement lorsqu'il s'agit des réponses des intelligences artificielles, celles-ci n'ayant aucune compréhension des mots employés. Pak'nSave a d'ailleurs souligné que selon les conditions d'utilisation, il faut être majeur pour utiliser leur chatbot, mais la firme a indiqué qu'elle comptait « continuer à affiner le réglage » de son IA.