au sommaire


    Il porteporte le nom de Pliny the Prompter (Pline le prompteur) et ce hacker a annoncé avoir jailbreaké GPT-4o, le tout dernier modèle d'OpenAI. L'IAIA serait donc libérée de ses carcans et de son bridage, dans une version gratuite rebaptisée « GPT-4o UnchainedN » ! Ou encore « Godmode GPT ». Le chatbotchatbot exploitable en « mode Dieu » était jusqu'à il y a peu encore utilisable et des captures d’écran le montrent en train d'expliquer comment préparer de la méthamphétamine, par exemple, ou bien du napalm. Cette fantaisie n'a pas du tout plu à OpenAI.

    Le clone de ChatGPT en version débridée n’a pas tenu bien longtemps. OpenAI l’a rapidement bloqué. © Pliny The Prompter

    Le chatbot débridé immédiatement bloqué

    La firme a immédiatement pris des mesures pour bloquer et faire disparaître ce cloneclone débridé du chatbot. Reste que depuis l'arrivée des chatbots et notamment ChatGPTChatGPT, les hackers ne cessent de chercher à faire sauter leurs verrousverrous.

    À force de tentatives et de blocages, les firmes comme OpenAI ont su renforcer la sécurité de leur système et les jailbreaksjailbreaks deviennent de plus en plus difficiles. Mais ils existent toujours, même s'ils ne durent pas longtemps. Pour activer ce « mode Dieu », les hackers exploiteraient ce qu'on appelle le « leetspeak », un langage dont certaines lettres sont remplacées par des chiffres, par exemple 3 = E. Toutefois, avec les renforcements de sécurité d'OpenAI, de nouvelles méthodes sont trouvées régulièrement, de sorte que ce jeu du chat et de la souris peut durer éternellement.

    Logo WhatsApp

    Suivez Futura sur WhatsApp et Google Actualités
    pour ne rien rater de l’actualité sciences & tech !

    Logo Google Actualités