Grâce à une Intelligence artificielle, des pirates sont parvenus à faire effectuer des virements par une banque en imitant la voix d’un patron d’entreprise. 35 millions de dollars ont ainsi été détournés à la suite d'un simple coup de fil !


au sommaire


    On connaissait les arnaques au président, une méthode qui est toujours fréquemment employée pour soutirer d'importantes sommes d'argentargent dans les entreprises, voici maintenant sa version améliorée à grand renfortrenfort d’Intelligence artificielle. L'histoire s'est déroulée aux Émirats arabes unis (EUA). Le directeur d'une grande banque s'est fait avoir par la voix clonée du patron d'une société qu'il a comme client. À la suite de la discussion avec ce prétendu propriétaire d'entreprise, le banquier a autorisé un virement de 35 millions de dollars. Pour rendre crédible la voix, la technologie utilisée a été surnommée Deep voice, à l'image des Deepfakes qui permettent de créer d'impressionnantes fausses vidéos faisant dire à des personnalités ce que l'on souhaite.

    Après les Deepfakes, voici les Deep voices

    Il s'agit du deuxième cas connu d'utilisation d'outils de clonageclonage vocal par des criminels. La première fois, ce fut en 2019 au Royaume-Uni. Des escrocs étaient parvenus à soutirer plus de 200.000 dollars à une entreprise en se faisant passer, là encore, pour le patron. Pour les spécialistes de la cybersécurité, cette affaire montre que l'emploi de l'IAIA combinée peut s'avérer redoutable lorsqu'elle est détournée par des cybercriminels. Et cette IA permettant de cloner de façon crédible les voix est accessible à tous. On peut la générer via des logiciels comme Aflorithmic, ou encore Respeecher.

    Dans le cas de l'escroquerie qui s'est déroulée aux EUA, les autorités aidées par des enquêteurs américains ont identifié 17 personnes impliquées. Cette arnaque au président boostée à l'IA pourrait amener dans un futur très proche aux mêmes types d'arnaques que l'on peut connaitre lorsqu'un proche nous demande subitement de l’argent, alors que sa boîte e-mail a été piratée. Un message vocal reprenant les intonations d'une personne que l'on connait serait d'autant plus crédible pour que l'escroc parvienne à ses fins.