Des chercheurs de Singapour ont trouvé une méthode pour débloquer les bridages de ChatGPT et Google Bard afin d'obtenir des réponses comportant des contenus malveillants et normalement non autorisés par les chatbots.


au sommaire


    Libérer ChatGPT ou GoogleGoogle Bard de leurs carcans pour les compromettre à partir d'un autre chatbot, c'est ce que sont parvenus à faire des chercheurs en informatique de l'Université technologique Nanyang (NTU) de Singapour. L'opération repose sur le même principe que celui du « jailbreakjailbreak » d'un smartphone en déverrouillant les sécurités et bridages de l'intelligence artificielle (IA). Pour arriver à leur fin et pouvoir générer du contenu normalement interdit car malveillant, avec ChatGPTChatGPT ou bien Google Bard, les chercheurs ont développé leur propre chatbot dédié au jailbreak. Les scientifiques ont baptisé leur technique Masterkey. Ils ont d'abord réalisé de la rétro-ingénierie des chatbots les plus populaires pour comprendre comment ils se défendaient contre les requêtes malveillantes. En fait, ils ont pu constater que pour brider les réponses, les développeurs ajoutent des mots-clés ou des expressions précises pour déterminer si une requête peut s'avérer illicite. En partant de ce constat, le contournement utilisé par le chatbot n'a pas été aussi compliqué que prévu.

    Des contournements assez simples

    Par exemple, pour faire passer certains mots-clés bannis, il suffisait d'ajouter des espaces après chaque caractère du mot. Un autre contournement consistait à demander que Bard et ChatGPT posent des questions à un personnage fictif et que ce dernier y réponde. Masterkey ne s'arrête pas là. Comme il s'agit d'une IA, elle peut fonctionner de manière autonome et concevoir de nouvelles solutions de contournement basées sur son expérience. Si ces experts ont pu montrer les limites de protection des chatbots, ce n'est pas spécialement pour créer une IA dangereuse, mais plutôt pour permettre de les renforcer contre ce type d'attaque et de faille. Les chercheurs ont pris soin d'alerter OpenAI et Google de leurs techniques.