En début de semaine, un homme a découvert des conversations d’origine inconnue dans son historique avec ChatGPT, dévoilant de nombreuses données privées. Le manque de sécurité du chatbot est pointé du doigt.  


au sommaire


    Une nouvelle controverse vient d'éclater autour de la sécurité des données de ChatGPTChatGPT, et des chatbots en général. Le site Ars Technica a dévoilé l'histoire d'un de ses lecteurs qui a eu une expérience pour le moins inquiétante en utilisant l'intelligence artificielle d'OpenAI.

    Ce n'est pas la première fois que ChatGPT révèle des failles inquiétantes. Sa propension aux coups de colère, voire au chantage, mêlée à son traitement des données personnelles, écrit la recette d'un dangereux cocktail. © Futura

    L'homme a expliqué avoir découvert dans son historique sur ChatGPT des conversations qui n'étaient pas les siennes. Chaque conversation semble avoir été menée par une personne différente, et contenait souvent des informations personnelles. Il y avait notamment quelqu'un qui travaillait sur une présentation, des détails d'un article de recherche non publié, ou encore un script en PHPPHP. Toutefois, le plus grave était lié à un employé d'une pharmacie qui tentait de résoudre des problèmes avec son site Web à l'aide du chatbot. La discussion contenait plusieurs noms d'utilisateurs et mots de passe, le nom de l'applicationapplication et même le numéro de téléphone de la pharmacie.

    Attention à ce que vous partagez avec une IA

    OpenAI a répondu et indiqué que son compte aurait été compromis et utilisé pour fournir un accès gratuit à ChatGPT 4ChatGPT 4 à un groupe d'utilisateurs au Sri Lanka. Toutefois, l'homme n'est pas convaincu, et indique avoir utilisé un mot de passe fort qui n'est associé à aucun autre compte, à part un compte MicrosoftMicrosoft. Malheureusement, OpenAI n'offre aucun moyen de sécuriser son compte avec l'authentification à deux facteursauthentification à deux facteurs, ni de consulter un historique des connexions.

    Gary Marcus, chercheur en IA et psychologie cognitive, a aussitôt réagi sur X (anciennement TwitterTwitter) en indiquant que ChatGPT n'est absolument pas sécurisé. Il rappelle que tout ce que l'on partage avec un chatbot peut être utilisé pour l'entraîner, partagé avec d'autres utilisateurs, utilisé pour des publicités ciblées ou encore revendu.