Voici les Deep Voices, des arnaques au président rendues encore plus crédibles, grâce à une IA qui clone de façon très réaliste la voix. © Pixabay
Tech

Attention aux fraudes bancaires par la voix !

ActualitéClassé sous :cybersécurité , intelligence artificielle , deep voice

-

Grâce à une Intelligence artificielle, des pirates sont parvenus à faire effectuer des virements par une banque en imitant la voix d'un patron d'entreprise. 35 millions de dollars ont ainsi été détournés à la suite d'un simple coup de fil !

Cela vous intéressera aussi

[EN VIDÉO] Les 10 menaces les plus dangereuses de l'intelligence artificielle  L’intelligence artificielle a permis des avancées dans le domaine de la santé, la recherche et l'industrie. Mais dans de mauvaises mains, elle peut aussi servir à des fins criminelles ou à la désinformation. 

On connaissait les arnaques au président, une méthode qui est toujours fréquemment employée pour soutirer d'importantes sommes d'argent dans les entreprises, voici maintenant sa version améliorée à grand renfort d’Intelligence artificielle. L'histoire s'est déroulée aux Émirats arabes unis (EUA). Le directeur d'une grande banque s'est fait avoir par la voix clonée du patron d'une société qu'il a comme client. À la suite de la discussion avec ce prétendu propriétaire d'entreprise, le banquier a autorisé un virement de 35 millions de dollars. Pour rendre crédible la voix, la technologie utilisée a été surnommée Deep voice, à l'image des Deepfakes qui permettent de créer d'impressionnantes fausses vidéos faisant dire à des personnalités ce que l'on souhaite.

Après les Deepfakes, voici les Deep voices

Il s'agit du deuxième cas connu d'utilisation d'outils de clonage vocal par des criminels. La première fois, ce fut en 2019 au Royaume-Uni. Des escrocs étaient parvenus à soutirer plus de 200.000 dollars à une entreprise en se faisant passer, là encore, pour le patron. Pour les spécialistes de la cybersécurité, cette affaire montre que l'emploi de l'IA combinée peut s'avérer redoutable lorsqu'elle est détournée par des cybercriminels. Et cette IA permettant de cloner de façon crédible les voix est accessible à tous. On peut la générer via des logiciels comme Aflorithmic, ou encore Respeecher.

Dans le cas de l'escroquerie qui s'est déroulée aux EUA, les autorités aidées par des enquêteurs américains ont identifié 17 personnes impliquées. Cette arnaque au président boostée à l'IA pourrait amener dans un futur très proche aux mêmes types d'arnaques que l'on peut connaitre lorsqu'un proche nous demande subitement de l’argent, alors que sa boîte e-mail a été piratée. Un message vocal reprenant les intonations d'une personne que l'on connait serait d'autant plus crédible pour que l'escroc parvienne à ses fins.

Abonnez-vous à la lettre d'information La quotidienne : nos dernières actualités du jour. Toutes nos lettres d’information

!

Merci pour votre inscription.
Heureux de vous compter parmi nos lecteurs !