Des chercheurs suisses ont étudié la capacité de GPT-4 à changer l’avis de personnes qui discutent avec l’IA. Il suffirait de quelques informations rudimentaires sur les participants pour qu’elle devienne beaucoup plus persuasive qu’un être humain.


au sommaire


    L'intelligence artificielle sait-elle se montrer convaincante ? Dans un article en prépublication, des chercheurs de l'École polytechnique fédérale de Lausanne (EPFL) ont mené une expérience pour savoir si l'intelligence artificielle pouvait être plus persuasive que des êtres humains.

    Le saviez-vous ? Les deepfakes nous inspirent plus confiance que des vidéos de véritables êtres humains. On vous en parle dans cet épisode de TechPod. © Futura

    L'étude a porté sur un total de 820 personnes, réparties dans quatre groupes. Elles devaient débattre à l'écrit pendant cinq minutes, et se trouvaient soit face à un être humain, soit face au grand modèle de langage GPT-4. À l'issue du débat, les chercheurs ont interrogé les participants afin de voir si leur point de vue avait évolué. Lorsque l'interlocuteur, IA ou humain, n'avait aucune information sur la personne, l'IA a réussi un peu plus souvent à la convaincre d'adopter son point de vue, même si le résultat n'était pas statistiquement significatif.

    Les données personnelles changent tout

    Toutefois, pour la moitié des groupes, l'interlocuteur avait des informations sociodémographiques sur les participants et avait pour consigne de s'en servir afin de créer des arguments personnalisés. Cette fois, l'intelligence artificielle s'en sort beaucoup mieux, avec un taux de persuasion 81,7 % plus élevé par rapport aux débats entre humains.

    Les chercheurs soulignent qu'ils n'ont collecté que très peu d'informations personnelles, et la consigne donnée à l'IA pour l'utilisation des données était très simple. Avec la quantité de données collectées sur les réseaux sociauxréseaux sociaux, par exemple, il serait assez facile d'obtenir des effets bien plus prononcés. Le risque est donc bien réel de voir des grands modèles de langage utilisés pour des campagnes de désinformation à grande échelle, ciblant chaque personne avec des arguments personnalisés.