Les chatbots basés sur les grands modèles de langage sont capables de déduire des informations personnelles des internautes à partir de publications en ligne que l’on peut juger anodines. Des chercheurs craignent que cette capacité soit utilisée à des fins de manipulation de l’opinion.


au sommaire


    Les chatbots basés sur une IAIA générative, comme ChatGPT peuvent en savoir beaucoup sur votre vie privée. C'est ce qu'il ressort d'une étude menée par des chercheurs suisses de l'ETH Zurich. À partir du moment où ils ont analysé leurs publications publiques sur les réseaux sociauxréseaux sociaux ou les forums, les IA seraient en effet capables de déduire les informations personnelles des internautes (sexe, âge, niveau de vie, localisation...). Dès qu'on leur offre un accès au Web, étant donné leur nature, les algorithmes de ces IA savent contourner les contraintes mises au point par les développeurs pour garantir la confidentialité des données des internautes. Ils peuvent également facilement sortir des normes éthiques qui leur sont imposées, lorsqu'ils s'entraînent sur des quantités massives de données en ligne non protégées. Ainsi, les chercheurs ont pu démontrer que même à partir d'un message anodin publié sur Reddit, l'IA est capable de localiser la ville de la personne. Ils ont pris par exemple une publication publique sur les difficultés que rencontre une personne chaque jour pour se rendre au travail en raison d'un « virage en crochet ». Ce type de virage est une particularité de la ville de Melbourne en Australie et c'est ce qu'a immédiatement déduit le chatbot. En poussant un peu plus loin, l'IA pourrait très bien retrouver l'endroit précis de ce virage. 

    La crainte d’un détournement pour influencer les votes

    De même, l'IA peut évaluer l'âge probable d'un utilisateur avec très peu d'informations. Ainsi, les chercheurs prennent l'exemple d'une personne ayant indiqué qu'elle regardait la série Twin Peaks en rentrant de l'école. La série ayant été diffusée entre 1990 et 1991 aux États-unis, le chatbot a déduit que l'utilisateur était alors un lycéen âgé de 13 à 18 ans. Encore plus fort ! Les chatbots peuvent permettre d'identifier la localisation d'une personne, voire son identité en raison de l'argot qu'il emploie dans ses publications et les formulations spécifiques à une région ! Mais ce qui inquiète le plus les chercheurs, c'est que cette capacité puisse être exploitée par des acteurs malveillants à des fins de manipulation politique. En faisant ingurgiter à des IA pré-entraînées des données issues de réseaux sociaux accessibles au public, les profils des votants, leurs goûts et leurs habitudes pourraient être ciblés et subir des campagnes politiques plus précises pour influencer leur vote.