Programmeur.chprogrammeur.ch
  • Intelligence artificielle

FraudGPT, le méchant clone de ChatGPT utilisé par les cybercriminels sur le Deep Web

Publié le 21.01.2024
Les risques de FraudGPT et d’autres outils d’IA malveillants. (Reuters)

En fait, le premier chatbot est considéré par certains comme le « jumeau maléfique de ChatGPT » , et il n'est pas gratuit et aucune de ses fonctions ne l'est. Il propose deux types de forfaits, un mensuel à 100 $ et un autre, privé, à 500 $.

Un changement de paradigme

En plus d’affecter la vie privée des individus, l’intelligence artificielle générative a été utilisée pour créer de fausses images. (Informations sur l'image illustrative)

L’apparition de ces outils représente une évolution significative dans la cybercriminalité, montrant que leur utilisation est de plus en plus raffinée et segmentée. Tandis que les experts mettent en garde contre le développement potentiel de malwares plus sophistiqués grâce à l’aide de l’IA générative .

Une technologie qui permet même aux attaquants de générer plus facilement des e-mails malveillants dans différentes langues et sans les erreurs typiques qui permettaient de les détecter facilement dans le passé.

Pour les experts, ces types d'outils criminels peuvent poser un sérieux problème pour l'avenir, car avec leur aide, des criminels n'ayant pratiquement aucune connaissance technique peuvent préparer des campagnes malveillantes de toutes sortes avec une probabilité de succès considérable.

De nouveaux types de criminalité

Cette technologie peut être utilisée pour générer des escroqueries plus sophistiquées, de la pornographie et même des armes biochimiques. (Franziska Gabbert/dpa)

La société de cybersécurité Proofpoint a identifié une utilisation croissante de l'intelligence artificielle pour commettre des escroqueries avancées, comme la fameuse « boucherie de porcs » , où les escrocs gagnent la confiance de leurs victimes avant de les dépouiller de leurs biens.

Cette technique a évolué et utilise désormais également des deepfakes, des vidéos et des audios manipulés , qui affectent principalement les responsables gouvernementaux, les hommes d'affaires et les célébrités, notamment ceux liés au domaine des investissements en cryptomonnaies.

Les chercheurs ont observé comment les attaquants de TA499, un groupe de cybercriminalité, utilisent des appels vidéo usurpés par l'IA pour se faire passer pour des politiciens et d'autres personnalités publiques.

L'imitation de ces individus vise à soutirer aux victimes des informations confidentielles ou compromettantes, pour ensuite les ridiculiser à travers leur publication sur les réseaux sociaux.

Des deepfakes à la création d’armes

FraudGPT est considéré comme le frère maléfique de ChatGPT. (Informations sur l'image illustrative)

Outre les implications en matière de cybersécurité , l’abus de l’intelligence artificielle dans la création de contenus trompeurs et sensibles, comme la pornographie non consensuelle, inquiète les experts en droit et en éthique du numérique.

Ces techniques d’IA ont également été déployées à des fins de manipulation politique et sociale, par exemple pour créer de fausses images d’ immigrés afin d’influencer l’opinion publique et les résultats électoraux.

De même, le risque que l’IA contribue à créer des armes biochimiques et à infiltrer des logiciels d’infrastructures critiques problématiques a été identifié.

Pendant ce temps, les réglementations existantes ne parviennent pas à couvrir efficacement l’éventail des menaces liées à l’intelligence artificielle générative.

Les recommandations

Il y a un avertissement, car plus une arnaque est convaincante, plus il est probable que quelqu'un en devienne victime. (EFE/Enric Fontcuberta)

L'éducation et la sensibilisation des utilisateurs sont mentionnées comme des éléments clés pour prévenir les risques de ces outils malveillants, même si des mesures réglementaires et des solutions technologiques sont également reconnues comme nécessaires.

En réponse aux dangers émergents, la formation d’équipes indépendantes pour tester ces outils contre les abus de l’IA et l’éventuelle interdiction de certains modèles open source sont suggérées.

Cependant, le défi dans la prévention des dommages causés par FraudGPT et des outils similaires réside dans la recherche d'un équilibre entre les objectifs éthiques de l'intelligence artificielle et la mise en œuvre pratique des mesures de sécurité et de réglementation.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.