
Le dernier rapport de McAfee sur l'IA et la cybersécurité aborde directement l'un des sujets les plus brûlants d'aujourd'hui avec un titre clair : Méfiez-vous de l'imposteur artificiel , Avertissement concernant les escroqueries téléphoniques par clonage de voix.
A ce propos, Fabio Sánchez, directeur de la Cybersécurité chez OCP TECH, souligne que le phénomène a connu une croissance exponentielle ces derniers mois et que l'enquête réalisée par McAfee est la plus complète à ce jour.
Sur la base des données collectées au cours de l'année 2023, cette nouvelle menace utilise une technologie de clonage de voix basée sur l'IA , représentant une version moderne des escroqueries téléphoniques bien connues comme le célèbre "Hello Mom". J'ai eu un accident.
Dans ces types d'escroqueries, un criminel passe un appel téléphonique et crée un stress important, ce qui amène la victime à croire qu'elle parle en fait à un membre de la famille demandant une aide urgente (et, bien sûr, exigeant un paiement à l'avance). aide nécessaire).
L'incorporation de la technologie dans ce schéma ancien le rend très difficile à détecter et peut même atteindre l'objectif sans créer de situation stressante.
Exposition et données personnelles

Aux États-Unis seulement, on estime qu'en 2022, cette arnaque a causé des pertes totalisant 2,6 milliards de dollars, et cette tendance est également en augmentation dans d'autres pays.
Au Royaume-Uni , par exemple, une variante de cette arnaque réalisée exclusivement via WhatsApp a entraîné des pertes de 1,5 million de livres sterling en seulement quatre mois. De même, en Australie , une escroquerie généralisée par SMS du même style a causé une perte moyenne par victime de 5 000 $.
Ces données correspondant à 2022, lorsque l'utilisation de ces technologies n'était pas encore aussi répandue, indiquent que le pire est encore à venir. La disponibilité et la sophistication croissantes des outils d'IA transforment les règles de la cybercriminalité.
De plus, ces outils de clonage de voix pris en charge par cette technologie sont abordables en termes de coût et faciles à utiliser. L'époque où il fallait du temps, des compétences techniques et du talent pour réussir une arnaque est désormais à la portée de tous.
La disponibilité des outils techniques se conjugue à un facteur crucial pour ces pratiques : la fréquence à laquelle la voix est partagée. Selon McAfee, 53 % des adultes interrogés partagent leur voix en ligne au moins une fois par semaine, et 49 % le font jusqu'à 10 fois au cours de la même période. Ceci sans tenir compte des vidéos personnelles sur des plateformes comme Instagram ou TikTok .
Public cible de ces escroqueries
25 % ont admis avoir eu une expérience liée à une escroquerie vocale basée sur l'IA, un répondant sur dix étant une victime directe de ces escroqueries et 15 % déclarant connaître une personne affectée. De leur côté, 36 % n'ont jamais entendu parler d'escroqueries impliquant des outils de clonage de voix, ce qui souligne la nécessité d' une plus grande éducation et sensibilisation à cette menace croissante.
Concernant le profil des victimes et les scénarios utilisés par les escrocs, 45% des personnes interrogées ont admis qu'elles répondraient positivement à une demande d'argent d'un ami ou d'un proche. Certains des scénarios les plus réussis créés par les escrocs incluent les accidents de voiture ( 48% ), les vols ( 47% ), la perte d'un téléphone portable ou d'un portefeuille ( 43% ), ou une demande d'aide d'un ami en difficulté à l'étranger ( 41%) . ).

40% ont indiqué qu'ils sont plus susceptibles de répondre si la demande provient d'un partenaire ou d'un conjoint, tandis que les parents de plus de 50 ans sont plus susceptibles de répondre positivement si le message provient d'un enfant ( 41% ).
Il est important de mentionner que la plupart des cas signalés impliquent des parents ou des grands-parents signalant qu'un cybercriminel a cloné la voix d'un enfant ou d'un petit-enfant et s'est fait passer pour lui.
Que faire pour se protéger des arnaques
Voici les recommandations pour vous protéger des arnaques au clonage de voix sous forme d'articles individuels :
1. Établissez un « mot de sécurité » comme code entre la famille et les amis pour les situations d'urgence. Cela permettra d'être averti rapidement d'éventuelles escroqueries par clonage de voix.
2. Méfiez-vous de la source , surtout si elle provient d'un numéro inconnu. Dans ces cas, il est préférable de demander quelques informations supplémentaires pour vérifier l'identité de la personne avec qui vous parlez, même en appelant depuis un autre numéro.
3. Contrôlez vos émotions et remettez tout en question. Demandez si la personne est vraiment celle qu'elle prétend être, si le contexte est crédible et si ce qu'elle demande est raisonnable. Poser ces questions peut faire la différence.
4. Envisagez de manière sélective les appels provenant de numéros inconnus . Dans l'environnement d'aujourd'hui, il est crucial de décider quels appels prendre et lesquels ignorer. En fin de compte, l'analyse objective d'un message vocal peut vous empêcher de tomber dans presque toutes les escroqueries.
Ces recommandations offrent des directives pratiques pour vous protéger et être attentif aux éventuelles escroqueries par clonage de voix.