Des chercheurs de l'université de Berkeley ont développé une IA qui est capable de copier les mouvements de danse d'une personne puis de les transférer sur le corps d'une autre personne pour créer de fausses vidéos. Monsieur tout le monde pourra danser comme Michael Jackson.

au sommaire


    On savait déjà que l'intelligence artificielle pouvait être utilisée pour truquer des vidéos en remplaçant les visages des protagonistes par d'autres. Une technique appelée « deepfake », contraction des termes anglais deep learning (apprentissage profondapprentissage profond) et fake (feint, truqué) qui donne des résultats aussi spectaculaires qu'inquiétants. Sur YouTubeYouTube, on trouve nombre d'exemples de détournements mettant en scène des célébrités et des hommes politiques. Le deepfake a été aussi exploité dans le porno pour produire de fausses vidéos utilisant le visage d'actrices célèbres.

    Dans un registre moins nuisible, voici un autre exemple des prouesses qu'une IA peut accomplir. Une équipe de chercheurs de l'université de Berkeley (Californie, États-Unis), a développé des algorithmes qui sont capables de copier la chorégraphie d'un danseur émérite puis de la calquer sur le corps d'une autre personne n'ayant pas le rythme dans la peau. 


    Dans cette vidéo, l’IA s’applique à recopier une chorégraphie du chanteur Bruno Mars. © Caroline Chan, Berkeley University

    Un réseau neuronal joue les illusionnistes

    Dans leur article scientifique, les créateurs de cette technique expliquent qu'ils ont entraîné un réseau neuronal qui analyse d'un côté des vidéos d'un danseur expérimenté et d'un autre côté celle d'un amateur. Les mouvementsmouvements sont modélisés sous la forme d'une figurine en bâtonnetsbâtonnets puis surimposés sur le corps du sujet cible. Il faut au moins 20 minutes de séquences vidéo filmées à 120 images par seconde.

    Comme on peut le constater dans la vidéo ci-dessus, le résultat n'est pas parfait puisque l'on observe un décalage dans la synchronisation au niveau des articulationsarticulations. Par ailleurs, il faut que les personnes figurant dans les extraits vidéo portent des vêtements près du corps, faute de quoi le programme ne parvient pas à détecter leurs mouvements.