
L'intelligence artificielle est utilisée par les cybercriminels comme un outil pour arnaquer les gens en se faisant passer pour leur famille ou leurs amis. Jusqu'à présent, le clonage vocal était la tactique la plus puissante, mais il a maintenant évolué vers les appels vidéo.
Le journal El Mundo a publié l'histoire d'un homme en Chine qui a reçu un appel vidéo de sa femme sur WeChat, elle lui demandait environ 3 600 $ car il avait eu un accident de voiture et devait régler la situation avec l'autre conducteur.
Bien que l'appel ait été passé depuis un compte différent du compte initial de la femme, compte tenu de la ressemblance physique, l'homme de 73 ans est tombé dans le piège et a remis l'argent, car la personne à l'autre bout lui ressemblait beaucoup. de sa femme dans sa façon de parler et son ton de voix, mais en réalité c'était une imitation générée par l'intelligence artificielle.
Selon les enquêtes sur l'affaire, les cybercriminels suivaient le couple depuis un moment, profitant du fait qu'elle avait une chaîne pour créer du contenu sur la cuisine, qui est populaire en Chine, et à partir de là, ils ont obtenu les données pour générer le image avec IA dans une modalité connue sous le nom de deepfake.

Croissance et préoccupation de ces cas
Tout comme l'intelligence artificielle représente une opportunité de croissance technologique pour de nombreux secteurs, c'est aussi une opportunité de croissance technologique pour les criminels. Selon les rapports du Washington Post, en 2022, 36 000 plaintes ont été déposées aux États-Unis contre des personnes trompées par le clonage de la voix.
Les appels ont été la principale méthode d'escroquerie, car l'audio est un processus facile à créer où l'attaquant n'a besoin que de quelques phrases d'une personne pour que le système apprenne ses habitudes de parole et son ton de voix. Ensuite, le cybercriminel peut créer un son disant n'importe quoi pour tromper les autres.
En Chine, ce type de cas a suscité l'inquiétude des autorités, c'est pourquoi elles ont utilisé Weibo, un réseau social local, pour diffuser des messages d'alerte aux utilisateurs. "Soyez prudent lorsque vous donnez des informations biométriques et évitez de partager des vidéos et autres images de vous-même sur Internet", déclarent les autorités.
Les escroqueries ne sont pas seulement faites pour appeler un membre de la famille et demander de l'argent, mais elles prennent également le visage de personnes célèbres, car il y a un contenu élevé de vidéo d'eux sur Internet, pour générer des deepfakes et promouvoir des produits.

Cette situation a également généré une alerte dans le secteur privé. Brad Smith, président de Microsoft, a déclaré aux législateurs américains qu'il s'agissait de l'un des plus grands problèmes de sécurité auxquels l'entreprise était confrontée aujourd'hui.
"Nous devons prendre des mesures pour nous protéger contre l'altération de contenus légitimes dans l'intention de tromper ou d'escroquer les gens grâce à l'utilisation de l'IA", a déclaré le directeur.
Smith a attiré l'attention des autorités et des développeurs de logiciels. D'une part, il a demandé aux législateurs de prendre des mesures pour garantir la sécurité et l'utilisation légitime des outils d'intelligence artificielle.
De plus, il a assuré qu'il est important que le public puisse reconnaître quand il est confronté à un contenu généré par l'IA, pour lequel il a suggéré la mise en place de labels sur les images et les vidéos qui fournissent ces informations.