Afin de lutter contre la désinformation, des chercheurs ont créé AntiFake, un outil pour éviter que sa voix ne soit utilisée pour des deepfakes. En ajoutant des perturbations dans les enregistrements audio avant leur publication en ligne, l’outil évite qu’ils puissent être exploitables par des intelligences artificielles.


au sommaire


    Tout comme les pulls moches pour neutraliser la reconnaissance faciale, des chercheurs de l’université de Washington ont mis au point un système utilisant la synthèse vocale pour se protéger contre les deepfakes. En plus de faire croire que quelqu'un a exprimé des propos qu'il n'a pas tenus, les deepfakes audio peuvent être utilisés pour des arnaques au téléphone. Baptisé AntiFake, le système est inspiré des attaques des cybercriminels contre les intelligences artificielles.

    L'outil est un filtre qui ajoute une perturbation sur un clip audio, après enregistrement mais avant sa publication en ligne. La méthode rappelle celle développée par le MIT pour protéger les photos. Ainsi, même si la voix reste tout à fait compréhensible pour un être humain, tout deepfake réalisé à partir d'un enregistrement protégé par AntiFake sera très facilement identifiable.

    Une protection efficace contre la plupart des synthétiseurs vocaux

    « Nous altérons légèrement le signal audio enregistré, nous le déformons ou le perturbons juste assez pour qu'il sonne encore juste pour les auditeurs humains, mais c'est complètement différent pour l'IA », explique Ning Zhang, l'un des créateurs du projet. Les auteurs fournissent des exemples de clips audio avant et après l'applicationapplication du filtre AntiFake sur la page du projet. Cette première version, bien que prometteuse, semble avoir quelques limites, puisque les clips protégés ressemblent à un microphone bas de gamme dans une salle de bains à côté d'un robinet ouvert...

    Les chercheurs ont testé avec succès leur système avec cinq des synthétiseurs vocaux les plus avancés. Actuellement, AntiFake peut protéger des clips courts, mais les chercheurs pensent que l'outil devrait également pouvoir protéger des clips plus longs ou même la musique. Toutefois, ce n'est sans doute qu'une question de temps avant que les IA ne parviennent à contourner ce genre de protection. Le code sourcecode source est disponible sur la page GitHub du projet.