Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Ils pensaient que leurs proches demandaient de l'aide : c'était une arnaque avec intelligence artificielle

Publié le 08.03.2023
Ils pensaient que leurs proches demandaient de l'aide : c'était une arnaque d'intelligence artificielle (Getty)

L'homme qui a appelé Ruth Card ressemblait à son petit-fils Brandon. Alors, quand il lui a dit qu'il était en prison, sans portefeuille ni téléphone portable, et qu'il avait besoin d'une caution, Card n'a pas tardé à faire tout ce qu'il pouvait pour l'aider.

"C'était définitivement un sentiment de… peur ", a-t-il déclaré. "Que nous devons l'aider maintenant."

Card, 73 ans, et son mari, Greg Grace, 75 ans, se sont précipités à leur banque à Regina, en Saskatchewan, et ont retiré 3 000 $ CA (2 207 $ US), le maximum quotidien. Ils se sont précipités dans une deuxième succursale à la recherche de plus d'argent. Mais le directeur de la banque les a fait entrer dans son bureau : un autre client avait reçu un appel similaire et avait appris que la voix étrangement précise avait été truquée, se souvient Card. L'homme au téléphone n'était probablement pas son petit-fils.

C'est alors qu'ils ont réalisé qu'ils avaient été trompés .

"Nous nous sommes fait berner", a déclaré Card dans une interview au Washington Post . "Nous étions convaincus que nous parlions à Brandon."

PHOTO DE FICHIER: La startup américaine Replika montre un utilisateur interagissant avec une application pour smartphone pour personnaliser un avatar pour un chatbot d'intelligence artificielle personnel (Reuters)

Alors que les escroqueries par hameçonnage augmentent aux États-Unis, l'expérience de Card est révélatrice d'une tendance inquiétante. La technologie permet aux mauvais acteurs de se faire passer pour des voix plus facilement et à moindre coût, en convainquant des personnes, souvent âgées, que leurs proches sont en danger. En 2022, les arnaques d'imposteurs étaient la deuxième arnaque la plus populaire aux États-Unis, avec plus de 36 000 signalements de personnes se faisant arnaquer en se faisant passer pour des amis ou des membres de la famille, selon les données de la Federal Trade Commission. Plus de 5 100 de ces incidents se sont produits par téléphone, entraînant des pertes de plus de 11 millions de dollars , selon les responsables de la FTC.

Les progrès de l'intelligence artificielle ont ajouté un nouveau niveau terrifiant, permettant aux mauvais acteurs de reproduire une voix avec juste un échantillon audio de quelques phrases. Grâce à l'intelligence artificielle, un certain nombre d'outils en ligne bon marché peuvent traduire un fichier audio en une réplique d'une voix, permettant à un escroc de lui faire "dire" ce que vous tapez.

Les experts disent que les régulateurs fédéraux, les forces de l'ordre et les tribunaux sont mal équipés pour arrêter cette arnaque croissante. La plupart des victimes ont peu de pistes pour identifier l'agresseur , et la police a du mal à retracer les appels et les fonds des escrocs opérant dans le monde entier. Et il existe peu de précédents juridiques permettant aux tribunaux de tenir les entreprises qui fabriquent les outils responsables de leur utilisation.

Le RAE a finalement choisi

"C'est terrifiant", déclare Hany Farid, professeur de criminalistique numérique à l'Université de Californie à Berkeley. "C'est une sorte de tempête parfaite... [avec] tous les ingrédients nécessaires pour créer le chaos."

Bien que les arnaques d'imposteurs prennent de nombreuses formes, elles fonctionnent essentiellement de la même manière : un escroc se fait passer pour une personne de confiance (un enfant, un amant ou un ami) et convainc la victime de lui envoyer de l'argent parce qu'elle a des problèmes.

Mais la technologie vocale générée artificiellement rend le canular plus convaincant. Les victimes disent qu'elles réagissent avec une horreur viscérale en entendant leurs proches en danger.

C'est une conséquence obscure du récent boom de l'intelligence artificielle générative , qui prend en charge les logiciels qui créent du texte, des images ou des sons à partir des données qui lui sont transmises. Les progrès des mathématiques et de la puissance de calcul ont amélioré les mécanismes de formation de ce type de logiciel, incitant une flotte d'entreprises à lancer des chatbots, des créateurs d'images et des créateurs de voix étrangement réalistes.

C'est une sombre conséquence de l'essor récent de l'intelligence artificielle générative.

Le logiciel de génération de parole par IA analyse ce qui rend la voix d'une personne unique (âge, sexe, accent, etc.) et recherche une vaste base de données de voix pour en trouver des similaires et prédire des modèles , explique Farid.

Vous pouvez ensuite recréer la hauteur , le timbre et les sons individuels de la voix d'une personne pour créer un effet global similaire, a-t-il ajouté. Cela nécessite un court extrait audio, tiré d'endroits comme YouTube, des podcasts, des publicités, des vidéos TikTok, Instagram ou Facebook, a déclaré Farid.

"Il y a deux ans, même un an, il fallait beaucoup d'audio pour cloner la voix d'une personne", a déclaré Farid. "Maintenant... si vous avez une page Facebook... ou si vous avez enregistré un TikTok et que votre voix est là pendant 30 secondes, les gens peuvent cloner votre voix."

Le logiciel de génération de parole recherche une vaste base de données de voix pour trouver des voix similaires et prédire des modèles

Des entreprises comme ElevenLabs, une startup de synthèse vocale IA fondée en 2022, transforment un court échantillon vocal en une voix générée synthétiquement grâce à un outil de synthèse vocale . Le logiciel d'ElevenLabs peut être gratuit ou coûter entre 5 $ et 330 $ par mois, selon le site, avec des prix plus élevés permettant aux utilisateurs de générer plus d'audio.

ElevenLabs a fait la une des journaux après avoir critiqué son outil, qui a été utilisé pour reproduire les voix de célébrités disant des choses qu'elles n'ont jamais faites, comme Emma Watson récitant à tort des passages de "Mein Kampf" d'Adolf Hitler. ElevenLabs n'a pas renvoyé de demande de commentaire, mais dans un fil Twitter, la société a déclaré qu'elle mettait en place des garanties pour lutter contre les abus, notamment en interdisant aux utilisateurs gratuits de créer des voix personnalisées et en lançant un outil pour détecter l'audio généré par l'IA. .

Mais ces garanties arrivent trop tard pour des victimes comme Benjamin Perkin, dont les parents âgés ont perdu des milliers de dollars à cause d'une escroquerie vocale.

Son cauchemar de clonage de voix a commencé lorsque ses parents ont reçu un appel téléphonique d'un soi-disant avocat, disant que leur fils avait tué un diplomate américain dans un accident de voiture. Perkin était en prison et avait besoin d'argent pour les frais juridiques.

Un clavier se reflète sur un écran d'ordinateur montrant le site Web de ChatGPT, un chatbot OpenAI AI (REUTERS/Florence Lo)

L'avocat a mis Perkin, 39 ans, au téléphone, qui a dit qu'il les aimait, les appréciait et avait besoin de l'argent. Quelques heures plus tard, l'avocat a rappelé les parents de Perkin, leur disant que leur fils avait besoin de 21 000 $ (15 449 $) avant une date d'audience plus tard dans la journée.

Les parents de Perkin lui ont dit plus tard que l'appel leur avait semblé inhabituel, mais ils ne pouvaient pas se débarrasser du sentiment qu'ils avaient réellement parlé à leur fils.

La voix était "suffisamment proche pour que mes parents aient vraiment cru qu'ils m'avaient parlé", a-t-il déclaré. Dans leur panique, ils ont couru vers plusieurs banques pour obtenir de l'argent et ont envoyé l'argent à l'avocat via un terminal bitcoin.

Lorsque le vrai Perkin a appelé ses parents ce soir-là pour faire une vérification informelle, ils étaient confus.

On ne sait pas d'où les escrocs ont tiré leur voix , bien que Perkin ait publié des vidéos sur YouTube discutant de son amour de la motoneige. La famille a déposé une plainte auprès des autorités fédérales canadiennes, explique Perkin, mais cela n'a pas permis de récupérer l'argent.

(Andin)

"L'argent a disparu", a-t-il dit. « Il n'y a pas d'assurance. Il ne peut pas être récupéré. A disparu".

Will Maxson, directeur adjoint de la division des pratiques marketing de la FTC, a déclaré qu'il peut être « particulièrement difficile » de traquer les escrocs vocaux car ils pourraient utiliser un téléphone basé n'importe où dans le monde , ce qui rend même difficile d'identifier quelle agence a compétence sur un particulier. cas.

Maxson a appelé à une vigilance constante . Si un être cher vous dit qu'il a besoin d'argent, mettez cet appel en attente et essayez d'appeler le membre de votre famille séparément, a-t-il dit. Si un appel suspect provient du numéro d'un membre de la famille, sachez qu'il peut également être usurpé. Ne payez jamais avec des cartes-cadeaux, car elles sont difficiles à retracer, a-t-il ajouté, et méfiez-vous de toute demande d'argent.

Eva Velasquez, directrice exécutive du Identity Theft Resource Center, affirme que les forces de l'ordre ont du mal à traquer les voleurs de clonage de voix. Velasquez, qui a passé 21 ans au bureau du procureur du district de San Diego à enquêter sur la fraude à la consommation, a déclaré que les services de police n'avaient peut-être pas assez d'argent et de personnel pour financer une unité dédiée à la recherche de la fraude.

Les grands départements doivent allouer des ressources aux cas qui peuvent être résolus, a-t-il déclaré. Les victimes d'escroqueries par messagerie vocale peuvent ne pas avoir beaucoup d'informations à donner à la police pour les enquêtes , ce qui rend difficile pour les fonctionnaires de consacrer beaucoup de temps ou de personnel, en particulier pour les petites pertes.

"S'ils n'ont aucune information à ce sujet", a-t-il déclaré. « Où commencent-ils ? »

Farid a déclaré que les tribunaux devraient tenir les entreprises d'IA responsables si les produits qu'elles fabriquent causent des dommages. Des juristes, dont le juge de la Cour suprême Neil Gorsuch, ont déclaré en février que les protections juridiques protégeant les réseaux sociaux contre les poursuites pourraient ne pas s'appliquer aux travaux créés par AI.

Pour Card, l'expérience l'a rendue plus vigilante. L'année dernière, elle s'est adressée à son journal local, le Regina Leader-Post, pour avertir les gens de ces escroqueries. Comme il n'a pas perdu d'argent, il ne l'a pas signalé à la police.

Surtout, dit-elle, elle a honte.

"Ce n'était pas une histoire très convaincante," dit-il. "Mais il n'était pas nécessaire que ce soit mieux qu'il ne l'était pour nous convaincre."

© Le Washington Post 2023

Continuer à lire:

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.