La popularité du nouveau chatbot ChatGPT inquiète autant qu’elle émerveille. Pour éviter les abus, OpenIA travaille sur un outil qui permettra d’identifier les textes produits par son IA, grâce à un système de signature numérique.


au sommaire


    Le chatbot ChatGPT d'OpenAI fait sensation depuis deux semaines. Cette intelligence artificielle est capable de répondre à des questions complexes en utilisant le langage naturel. ChatGPTChatGPT est tellement performant que ses réponses sont souvent impossibles à distinguer de celles d'êtres humains.

    Cela risque de poser problème. Des étudiants pourraient tricher en utilisant ChatGPT pour générer leurs dissertations, et les professeurs n'auraient aucun moyen de détecter la supercherie. Pire, le chatbot pourrait être utilisé pour générer de la propagande, voire même des sites entiers de faux articles en quelques clics, ou encore pour imiter le stylestyle de quelqu'un dans le but de l'incriminer.

    Une signature cryptographique dans le choix des mots

    Pour cette raison, des spécialistes d'OpenAI travaillent sur un nouveau projet qui permettra d'identifier les textes générés par leur IA. Ils comptent intégrer une signature numérique directement dans le texte, à l'instar d'un filigrane sur une photo. Toutefois, ils comptent aller bien plus loin que les techniques qui existent déjà comme, par exemple, doubler les espaces entre certains mots. Les chercheurs comptent mettre en place une signature cryptographique directement dans le choix des mots.

    Scott Aaronson d'OpenAI décrit le fonctionnement de ChatGPT comme étant tout simplement la prédiction du prochain jeton (ou tokentoken) dans la série, chaque jeton pouvant être un mot, une ponctuation, ou une partie d'un mot. Cette simplification omet de nombreuses complexités, mais suffit pour comprendre le projet d'ajouter une signature numérique au texte. L'IA fonctionne en analysant le texte généré jusqu'à présent, puis sélectionne le prochain mot ou autre élément ayant la meilleure probabilité statistique d'arriver directement après. Lorsque la probabilité est la même, l'IA choisit aléatoirement. L'idée des chercheurs est d'influencer ce choix aléatoire avec une fonction cryptographique pseudo-aléatoire. Les choix sembleraient toujours être aléatoires, mais quelqu'un disposant de la clé cryptographique pourrait détecter le biais dans la sélection des jetons.

    Une solution limitée

    Cette idée pourrait parfaitement fonctionner avec ChatGPT, mais risque, en l'état, d'être très limitée. OpenAI n'est pas seule à travailler sur ce genre d'IA, et il existe d'autres modèles, publiés en tant que logiciels libreslogiciels libres. S'ils n'ont pas encore atteint le niveau de ChatGPT, ce n'est certainement qu'une question de temps. Même si les développeurs intègrent un système de signature numérique dans leur code, n'importe qui peut créer leur propre version après l'avoir retiré. C'est le principe même du logiciel libre. De plus, si l'outil de vérification est librement accessible, il suffira de modifier quelques mots, tester le texte dans l'outil, et puis de répéter l'opération jusqu'à ce qu'il ne soit plus signalé comme étant issu de l'IA. Les étudiants tricheurs devront au moins lire une partie de leur dissertation avant de la rendre...

    Le chatbot n'en est encore qu'à ses débuts et les ramifications sont pour l'instant plutôt théoriques. Toutefois, du côté des images, le problème est bien plus réel. Dall-E2 d’OpenAI intègre des filtres pour éviter de produire des images problématiques. D'autres IA n'ont pas ces limites et les deepfakesdeepfakes, utilisés par exemple, pour la propagande ou la pornographie, se multiplient. Cette signature numérique pourrait néanmoins s'inscrire dans un ensemble d'outils plus large qu'il faudra développer pour identifier les contenus issus de l'IA.