Aux États-Unis, le commandement des opérations spéciales souhaite utiliser les deepfakes comme arme de manipulation, de désinformation et d'influence. L’organisation voudrait aussi obtenir les moyens pour vérifier le bon fonctionnement d’une opération de manipulation des masses. 


au sommaire


    Les exemples de deepfakes ultraréalistes ne manquent pas et lorsque ces vidéos factices sont dopées avec des intelligences artificielles (IA) évoluées, détecter le vrai du faux devient très problématique. Même celles que l'on peut considérer comme bas de gamme peuvent fonctionner auprès des populations. Ce fut notamment le cas en début d'année pour un deepfake au Burkina Faso. Une vidéo, qui circulait sur les réseaux sociauxréseaux sociaux, faisait croire à un soutien de panafricanistes américains à la junte au pouvoir. Le gouvernement américain, comme bien d'autres, met souvent en garde contre le risque que peuvent représenter ces deepfakes dans l'art de la manipulation. Les États-Unis soutiennent la mise au point d'outils pour les mettre en évidence et en limiter la portée. Mais cette lutte porteporte surtout sur les tentatives de manipulation à destination du pays. Parce que l'envers de la médaille est en revanche bien moins glorieux. Ainsi, selon les documents que le média The Intercept a pu analyser, le commandement des opérations spéciales du pays (SOCOM) se prépare à mener des campagnes de propagande et de manipulation via le Web à l'aide de vidéos deepfakes.

    Intitulée « Technologies avancées à utiliser dans les opérations de soutien de l'information militaire (MISO) », la section 4.3.1.4 de ce document présente cette demande d'emploi d'outils numériques destinés à manipuler les massesmasses. Elle a été présentée avec de nombreuses autres propositions d'outils futuristes censés aider les forces spéciales dans leurs missions. Outre les deepfakes, on trouve pêle-mêle des robots tueurs, des systèmes d'arme au laserlaser, des drones...  Pour ce qui est des manipulations de masse, les documents décrivent également les méthodes souhaitées pour obtenir des retours fiables sur les opérations en cours. Fiables, car elles reposent tout bonnement sur le piratage des appareils connectés, d'un accès aux réseaux sociaux et médias, pour les analyser et évaluer la sensibilité des populations à une opération de propagande en cours.

    Les premiers deepfakes ont été créés en 2017 grâce aux progrès des algorithmes d’apprentissage automatique. Le résultat est parfois très impressionnant. Mais souvent, même des deepfakes de mauvaise qualité peuvent suffire à influencer. Cet exemple peu convaincant avec le président ukrainien Volodymyr Zelensky aurait pu faire basculer la guerre dès le début de l'invasion s'il avait pris. Mais des études récentes montrent que ces deepfakes peuvent désormais duper au moins la moitié des observateurs. © Capture YouTube
    Les premiers deepfakes ont été créés en 2017 grâce aux progrès des algorithmes d’apprentissage automatique. Le résultat est parfois très impressionnant. Mais souvent, même des deepfakes de mauvaise qualité peuvent suffire à influencer. Cet exemple peu convaincant avec le président ukrainien Volodymyr Zelensky aurait pu faire basculer la guerre dès le début de l'invasion s'il avait pris. Mais des études récentes montrent que ces deepfakes peuvent désormais duper au moins la moitié des observateurs. © Capture YouTube

    Une redoutable arme d’influence géopolitique

    Pour le moment, il ne s'agit que de demandes du SOCOM (Special Operations Command) et aucune technologie précise n'est invoquée. Les descriptions se limitent à donner le cadre à des outils tactiques de manipulation et de désinformation, ainsi que les moyens pour obtenir un retour précis sur leur bonne emprise auprès des publics visés.

    Mais, selon The Intercept, alors que les États-Unis s'érigent souvent en donneur de leçon de vérité et de réalité, le SOCOM n'en serait pas vraiment à son coup d'essai. Par exemple, l'organisme a déjà poussé TwitterTwitter à accepter la présence d'un réseau de comptes bidon pour pousser de fausses informationsfausses informations sur le trafic d'organes d'afghans par le gouvernement iranien. Les profils de ces « trolls », étaient générés par des algorithmes de deep learning. Il leur conférait suffisamment de réalismeréalisme pour devenir crédibles. Ces opérations secrètes d'influence ne sont donc pas nouvelles et sont d'ailleurs présentées publiquement par la CIA depuis plusieurs années déjà.

    Mais le passage aux deepfakes dans ce type d'opération pousse la barre un peu plus haut. Pour ce qui est des cibles, le document reste centré sur la demande d'outils techniques. On n'en saura donc pas plus, mais elles pourraient tout aussi bien être utilisées pour toucher certaines populations dans le pays, ou comme arme d'influence à l'étranger. Une méthode qui rappelle celles menées par le Kremlin depuis maintenant des années, avec des résultats parfois tangibles sur des élections ou pour pousser des narratifs auprès des populations, avec dans certains cas un certain succès. Est-ce pour combler cette lacune et contrecarrer ces méthodes que le Pentagone souhaite également les développer ? En tout cas, la révélation de ces documents a outré et inquiété les experts interrogés par The Intercept