Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Voici comment les cybercriminels utilisent l'IA pour escroquer des personnes en Amérique latine : comment vous pouvez vous protéger.

Publié le 04.10.2024
Les utilisateurs sont maintenant plus exposés à des escroqueries hyperréalistes grâce aux avancées de l'IA. (Image illustrative Infobae)

Les fraudes ont atteint un niveau de sophistication sans précédent, et selon Interpol, cela se réalise "sans besoin de compétences techniques avancées et à un coût relativement bas".

Comment fonctionnent les escroqueries réalisées avec l'IA

L'utilisation d'outils d'intelligence artificielle permet aux délinquants de tirer parti de grandes quantités de données sur les réseaux sociaux pour réaliser des escroqueries de plus en plus élaborées. Ces technologies permettent d'extraire rapidement des informations personnelles de plateformes telles que X (anciennement Twitter), facilitant ainsi la création de messages automatiques et hautement personnalisés pour manipuler les victimes.

Les escrocs perfectionnent leurs techniques grâce à l'IA. (Image illustrative Infobae)

Par exemple, les escrocs peuvent accéder aux abonnés d'un compte de football et, à partir de cette information, envoyer des messages conçus pour générer confiance et obtenir plus de données.

Dans ce contexte, des fraudes traditionnelles comme le phishing, les e-mails avec logiciels malveillants, les escroqueries romantiques ou les faux concours ont atteint un degré de sophistication plus élevé.

Les outils d'IA ne permettent pas seulement de créer des images réalistes et de rédiger dans plusieurs langues, mais facilitent également l'envoi massif d'e-mails frauduleux par le biais de programmes qui sont même gratuits.

Selon une évaluation récente d'Interpol, des groupes criminels puissants en Amérique Latine, comme le Cartel Jalisco Nouvelle Génération (CJNG) du Mexique, le Premier Commandement de la Capitale (PCC) du Brésil et le Commandement Rouge (CV) également du Brésil, sont impliqués dans ce type d'escroqueries.

Les criminels utilisent des informations publiques disponibles sur les réseaux sociaux pour organiser leurs escroqueries. (Image illustrative Infobae)

Le réseau de recherche InSight Crime note que ces groupes ont adopté des techniques avancées de cyberfraude dans le cadre de leurs opérations criminelles.

D'un autre côté, l'intelligence artificielle est également utilisée pour générer des images et des vidéos fausses avec un niveau d'hyperréalisme qui est difficile à distinguer des contenus réels. Ces créations, connues sous le nom de deepfakes, sont exploitées par des cyberdélinquants pour extorquer, commettre des fraudes ou manipuler leurs victimes.

L'IA facilite la création de messages frauduleux qui incluent des photos de personnes familières dans des situations qui n'ont jamais eu lieu, renforçant ainsi la véracité perçue de la tromperie.

De plus, avec juste écouter la voix d'une personne pendant 5 ou 10 secondes, il est possible de cloner son ton et ses patterns de parole, permettant aux délinquants de simuler des conversations téléphoniques et de générer des enregistrements qui peuvent être utilisés pour manipuler des tiers ou réaliser des escroqueries plus élaborées.

Les criminels se tournent vers l'IA pour générer des deepfakes. (Image illustrative Infobae)

“C'est une attaque plus sophistiquée, pas si automatique, mais qui s'avère souvent très efficace. Il n'est plus nécessaire de kidnapper quelqu'un pour demander une rançon. Un appel à un membre de la famille peut libérer les fonds directement”, a déclaré Etay Maor, directeur de la sécurité chez Cato Networks et membre fondateur de Cato CTRL, à la BBC.

À la frontière entre le Mexique et les États-Unis, il a été identifié que des groupes criminels escroquent des familles de migrants disparus en utilisant de fausses images.

Une enquête d'InSight Crime détaille que ces groupes créent des sites web se faisant passer pour des organisations dédiées à la recherche de personnes disparues. À travers ces portails, ils demandent aux familles d'envoyer des photos de leurs proches sous prétexte d'aider à l'identification.

Il est crucial que les utilisateurs s'éduquent sur l'intelligence artificielle pour apprendre à identifier les escroqueries utilisant cette technologie. (Image illustrative Infobae)

Par la suite, les délinquants utilisent ces images pour générer de fausses photos ou vidéos qui semblent authentiques, alléguant que la personne a été kidnappée et exigeant une rançon pour sa libération.

Comment se protéger des escroqueries avec l'IA

En tant qu'utilisateurs finaux, la seule façon réellement efficace de se protéger contre les escroqueries sophistiquées créées avec l'intelligence artificielle est de s'éduquer sur cette technologie.

En comprenant comment fonctionne l'IA, les utilisateurs seront capables d'identifier des modèles suspects, tels que des images fausses ou des messages personnalisés conçus pour nous manipuler. L'éducation technologique offre des outils pour détecter les fraudes et ainsi éviter de tomber dans les pièges de plus en plus élaborés utilisant ces techniques.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.