Des fraudeurs ont cloné la voix du directeur de l’entreprise dans un cambriolage de 35 millions de dollars, la police a découvert

[ad_1]


Le clonage vocal de l’IA est utilisé dans un énorme braquage aux Émirats arabes unis, selon les enquêteurs de Dubaï, au milieu des avertissements concernant l’utilisation cybercriminelle de la nouvelle technologie.


Début 2020, un directeur de banque aux Émirats arabes unis a reçu un appel d’un homme dont il a reconnu la voix – un directeur d’une entreprise avec qui il avait déjà parlé. Le directeur avait une bonne nouvelle : sa société était sur le point de faire une acquisition, il avait donc besoin que la banque autorise des virements à hauteur de 35 millions de dollars. Un avocat nommé Martin Zelner avait été embauché pour coordonner les procédures et le directeur de la banque pouvait voir dans sa boîte de réception les e-mails du directeur et de Zelner, confirmant l’argent nécessaire pour déménager où. Le directeur de la banque, estimant que tout semblait légitime, a commencé à effectuer les virements.

Ce qu’il ne savait pas, c’est qu’il avait été dupé dans le cadre d’une escroquerie élaborée, dans laquelle des fraudeurs avaient utilisé la technologie de la « voix profonde » pour cloner le discours du réalisateur, selon un acte judiciaire déterré par Forbes dans lequel les Émirats arabes unis ont demandé l’aide d’enquêteurs américains pour retrouver 400 000 $ de fonds volés qui ont été déposés sur des comptes américains détenus par la Centennial Bank. Les Émirats arabes unis pensent qu’il s’agissait d’un stratagème élaboré, impliquant au moins 17 personnes et qui a envoyé l’argent volé sur des comptes bancaires à travers le monde.

Peu plus de détails ont été donnés dans le document, aucun des noms des victimes n’ayant été fourni. Le parquet de Dubaï, qui dirige l’enquête, n’avait pas répondu aux demandes de commentaires au moment de la publication. Un avocat basé aux États-Unis, Martin Zelner, avait également été contacté pour commentaires, mais n’avait pas répondu au moment de la publication.

Ce n’est que le deuxième cas connu de fraudeurs qui auraient utilisé des outils de modelage de la voix pour effectuer un casse, mais il semble avoir eu beaucoup plus de succès que le premier, dans lequel des fraudeurs ont utilisé la technologie pour se faire passer pour le PDG d’une entreprise énergétique basée au Royaume-Uni à une tentative de vol de 240 000 $ en 2019, selon le le journal Wall Street.

Le cas des Émirats arabes unis montre à quel point de telles escroqueries de haute technologie peuvent être dévastatrices et atterrit au milieu mises en garde sur l’utilisation de l’IA pour créer des images et des voix prétendument fausses dans la cybercriminalité.

« Les contrefaçons audio et visuelles représentent le développement fascinant de la technologie du 21e siècle, mais elles sont également potentiellement incroyablement dangereuses et constituent une énorme menace pour les données, l’argent et les entreprises », déclare Jake Moore, un ancien officier de police du département de police de Dorset au Royaume-Uni et maintenant expert en cybersécurité dans la société de sécurité ESET. «Nous sommes actuellement sur le point de voir des acteurs malveillants transférer leur expertise et leurs ressources en utilisant les dernières technologies pour manipuler des personnes qui ignorent innocemment les domaines de la technologie deep fake et même leur existence.

« La manipulation de l’audio, qui est plus facile à orchestrer que la création de fausses vidéos profondes, ne fera qu’augmenter en volume et sans l’éducation et la sensibilisation à ce nouveau type de vecteur d’attaque, ainsi que de meilleures méthodes d’authentification, davantage d’entreprises sont susceptibles d’être victimes de conversations très convaincantes.

Autrefois une technologie confinée au domaine des cabrioles fictives comme Mission impossible, le clonage vocal est désormais largement disponible. Diverses startups technologiques travaillent sur des technologies vocales d’IA de plus en plus sophistiquées, de Aflorithmic de Londres à Respeecher d’Ukraine et Resemble.AI du Canada. La technologie a fait sensation ces derniers mois avec la révélation que feu Anthony Bourdain avait fait synthétiser sa voix pour un documentaire sur sa vie. Pendant ce temps, reconnaissant le potentiel d’utilisation malveillante de l’IA, une poignée d’entreprises, comme la société de sécurité Pindrop, évaluée à 900 millions de dollars, prétendent désormais pouvoir détecter les voix synthétisées et ainsi prévenir les fraudes.

Si des enregistrements de votre conversation sont disponibles en ligne, que ce soit sur les réseaux sociaux, YouTube ou sur le site Web d’un employeur, il se peut bien qu’une bataille secrète se déroule pour le contrôle de votre voix à votre insu.

[ad_2]

Source link

Laisser un commentaire