Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Ils arnaquent les parents avec l'intelligence artificielle : ce n'était pas leur fille, c'était un robot

Publié le 30.01.2024
Aussi urgente que puisse paraître la situation, il est important de rester calme. (Informations sur l'image illustrative)

Paddric Fitzgerald était sur son lieu de travail lorsque son téléphone a sonné, c'était un numéro inconnu.

Le travailleur a eu de la chance que sa fille l’ait contacté par hasard à ce moment-là. (Informations sur l'image illustrative)

Lorsqu’il a répondu, il a découvert une situation terrifiante, comme l’a révélé le Financial Times. Elle a entendu sa fille crier en arrière-plan pendant l'appel, disant qu'elle était en danger. « Elle criait en arrière-plan en disant qu'ils allaient la couper pendant que j'étais en conversation. "J'allais leur donner tout ce que j'ai financièrement."

En réalité, il ne s’agissait pas de sa fille, mais d’une voix générée par l’intelligence artificielle. Par coïncidence, au même moment, il reçut un message ordinaire d'elle depuis son téléphone portable.

Cela l’a aidé à réaliser que la voix qu’il entendait n’appartenait pas à sa fille. C'était une voix créée grâce à l'intelligence artificielle. Cette méthode représente la nouvelle stratégie alarmante que les criminels utilisent pour tromper les gens.

Un danger déjà réel

Les voix générées par l’IA représentent un danger déjà réel. (Image d’illustration Infobae)

De nos jours, il est courant de trouver des chansons créées avec l’intelligence artificielle. Preuve en est, une chanson de Bad Bunny, Daddy Yankee et Justin Bieber circule sur les réseaux IN, alors qu'en réalité, ces artistes n'ont jamais collaboré, ce ne sont que leurs voix manipulées grâce à une IA.

D’une certaine manière, il était prévisible que les criminels commenceraient également à utiliser ces outils de clonage vocal à des fins illicites.

Alex West, consultant chez PwC et co-auteur de certaines des études les plus récentes sur le sujet, a expliqué que « les escrocs obtiennent déjà de grands succès » et commencent peut-être tout juste à utiliser cette technologie. Il a ajouté qu’« il est évident que les tentatives d’escroquerie vont devenir de plus en plus sophistiquées ».

En février 2023, une étude menée par des chercheurs de Microsoft a démontré les capacités de leur système, VALL-E, à cloner des voix avec une qualité exceptionnelle, en utilisant seulement un échantillon vocal de trois secondes .

Le système Microsoft est capable de cloner des voix avec accès à trois secondes de la voix originale. (Image d’illustration Infobae)

Des experts en génération de contenu IA, comme Henry Ajder, qui a conseillé des sociétés telles que Meta et Adobe, soulignent comment l’IA a considérablement facilité les escroqueries par phishing.

Qui est la principale cible du vol ?

Selon les informations de la Federal Trade Commission mentionnées dans le FT, les escroqueries touchent particulièrement les personnes âgées , les pertes financières moyennes étant plus élevées à mesure que l'âge des victimes augmente.

Par exemple, les personnes de plus de 80 ans subissent des pertes deux fois supérieures à celles subies par les personnes plus jeunes.

Ruth Card, 73 ans, a reçu un appel de celui qu'elle croyait être son petit-fils Brandon, car la voix à l'autre bout du fil était identique à la sienne. « Grand-mère, je suis en prison, sans portefeuille, sans téléphone », lui dit cette voix.

Les personnes âgées sont plus sensibles à ces attaques. (Image d’illustration Infobae)

"J'ai besoin d'argent pour ma caution." Sans hésitation, Ruth et son mari se sont rendus à la banque pour retirer 3 000 dollars canadiens.

En essayant de retirer un montant similaire dans une autre agence, le directeur de la banque a senti que quelque chose n'allait pas et l'a intercepté : un autre client avait vécu une situation similaire et s'est rendu compte que la voix de l'interlocuteur n'appartenait pas à celui qu'il prétendait être. Il s’agissait d’une voix créée par un système d’intelligence artificielle, un deepfake audio, selon le Washington Post.

Comment se protéger de ces audios

Pour se protéger contre les escroqueries audionumériques, il est essentiel que les gens valident l'identité de ceux qui les contactent via un autre canal de communication , en s'assurant qu'ils sont bien ceux qu'ils prétendent être.

De plus, il est essentiel de ne fournir aucune information personnelle ou financière lors d’appels non vérifiés. Il est également conseillé de parler de ces techniques de fraude à la famille et aux amis , en créant un réseau d'alerte et de prévention qui réduit la vulnérabilité à ces tromperies technologiquement avancées.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.