
Paddric Fitzgerald était sur son lieu de travail lorsque son téléphone a sonné, c'était un numéro inconnu.

Lorsqu’il a répondu, il a découvert une situation terrifiante, comme l’a révélé le Financial Times. Elle a entendu sa fille crier en arrière-plan pendant l'appel, disant qu'elle était en danger. « Elle criait en arrière-plan en disant qu'ils allaient la couper pendant que j'étais en conversation. "J'allais leur donner tout ce que j'ai financièrement."
En réalité, il ne s’agissait pas de sa fille, mais d’une voix générée par l’intelligence artificielle. Par coïncidence, au même moment, il reçut un message ordinaire d'elle depuis son téléphone portable.
Cela l’a aidé à réaliser que la voix qu’il entendait n’appartenait pas à sa fille. C'était une voix créée grâce à l'intelligence artificielle. Cette méthode représente la nouvelle stratégie alarmante que les criminels utilisent pour tromper les gens.
Un danger déjà réel

De nos jours, il est courant de trouver des chansons créées avec l’intelligence artificielle. Preuve en est, une chanson de Bad Bunny, Daddy Yankee et Justin Bieber circule sur les réseaux IN, alors qu'en réalité, ces artistes n'ont jamais collaboré, ce ne sont que leurs voix manipulées grâce à une IA.
D’une certaine manière, il était prévisible que les criminels commenceraient également à utiliser ces outils de clonage vocal à des fins illicites.
Alex West, consultant chez PwC et co-auteur de certaines des études les plus récentes sur le sujet, a expliqué que « les escrocs obtiennent déjà de grands succès » et commencent peut-être tout juste à utiliser cette technologie. Il a ajouté qu’« il est évident que les tentatives d’escroquerie vont devenir de plus en plus sophistiquées ».
En février 2023, une étude menée par des chercheurs de Microsoft a démontré les capacités de leur système, VALL-E, à cloner des voix avec une qualité exceptionnelle, en utilisant seulement un échantillon vocal de trois secondes .

Des experts en génération de contenu IA, comme Henry Ajder, qui a conseillé des sociétés telles que Meta et Adobe, soulignent comment l’IA a considérablement facilité les escroqueries par phishing.
Qui est la principale cible du vol ?
Selon les informations de la Federal Trade Commission mentionnées dans le FT, les escroqueries touchent particulièrement les personnes âgées , les pertes financières moyennes étant plus élevées à mesure que l'âge des victimes augmente.
Par exemple, les personnes de plus de 80 ans subissent des pertes deux fois supérieures à celles subies par les personnes plus jeunes.
Ruth Card, 73 ans, a reçu un appel de celui qu'elle croyait être son petit-fils Brandon, car la voix à l'autre bout du fil était identique à la sienne. « Grand-mère, je suis en prison, sans portefeuille, sans téléphone », lui dit cette voix.

"J'ai besoin d'argent pour ma caution." Sans hésitation, Ruth et son mari se sont rendus à la banque pour retirer 3 000 dollars canadiens.
En essayant de retirer un montant similaire dans une autre agence, le directeur de la banque a senti que quelque chose n'allait pas et l'a intercepté : un autre client avait vécu une situation similaire et s'est rendu compte que la voix de l'interlocuteur n'appartenait pas à celui qu'il prétendait être. Il s’agissait d’une voix créée par un système d’intelligence artificielle, un deepfake audio, selon le Washington Post.
Comment se protéger de ces audios
Pour se protéger contre les escroqueries audionumériques, il est essentiel que les gens valident l'identité de ceux qui les contactent via un autre canal de communication , en s'assurant qu'ils sont bien ceux qu'ils prétendent être.
De plus, il est essentiel de ne fournir aucune information personnelle ou financière lors d’appels non vérifiés. Il est également conseillé de parler de ces techniques de fraude à la famille et aux amis , en créant un réseau d'alerte et de prévention qui réduit la vulnérabilité à ces tromperies technologiquement avancées.