
La tendance actuelle est que les criminels publient sur les forums et les marchés du Dark Web des modèles de langage étendus (LLM) qu'ils prétendent avoir produits eux-mêmes. Les systèmes, qui, selon eux, parviennent à imiter les fonctionnalités de ChatGPT et Bard de Google , génèrent du texte pour répondre aux questions ou aux instructions que les utilisateurs saisissent. Mais contrairement aux LLM menés par des entreprises légitimes, ces chatbots sont commercialisés pour des activités illégales.
Les noms des chatbots sont WormGPT et FraudGPT . Les développeurs de WormGPT affirment que l'outil offre un nombre illimité de caractères et de formats de code. « Les modèles d'IA sont remarquablement utiles pour le phishing, notamment parce qu'ils réduisent les barrières à l'entrée pour de nombreux cybercriminels débutants », a déclaré Daniel Kelley, qui a travaillé avec la société de sécurité SlashNext.
Le phishing est une forme de cyberattaque et d'arnaque en ligne dans laquelle les criminels tentent d'inciter les gens à révéler des informations sensibles, telles que des mots de passe, des numéros de carte de crédit, des numéros de sécurité sociale ou d'autres informations personnelles. Les attaquants usurpent généralement l'identité d'entités de confiance, telles que des banques, des entreprises, des services en ligne ou même des personnes que vous connaissez, par le biais d'e-mails, de SMS, d'appels téléphoniques ou d'autres moyens de communication.

Ce chatbot, que certains appellent « le jumeau maléfique de ChatGPT », n'est pas gratuit (aucune de ses fonctionnalités ne l'est). Il propose deux types de forfaits, un mensuel à 100 $ et un autre, privé, à 500 $.
En outre, le développeur de FraudGPT a déclaré que son système avait un plus grand potentiel, laissant entendre qu'il pourrait être capable de « créer des logiciels malveillants qui ne sont pas détectés » et de découvrir des fuites et des vulnérabilités, ainsi que de générer du texte qui pourrait être utilisé dans des activités frauduleuses en ligne.
Rakesh Krishnan, analyste principal des menaces au sein de la société de sécurité Netenrich qui a identifié FraudGPT, a noté que la personne qui commercialise le produit a fait la promotion du produit sur plusieurs forums du Dark Web ainsi que sur les chaînes Telegram .

Les modèles linguistiques développés par de grandes entreprises technologiques comme Google , Microsoft et OpenAI incluent un certain nombre de garanties et de mesures de sécurité conçues pour empêcher toute utilisation inappropriée. Ils refusent généralement de générer du contenu lié à des logiciels malveillants ou à des discours de haine sur demande.
En revanche, des modèles linguistiques douteux prétendent avoir supprimé toute forme de protection de sécurité ou de contraintes éthiques.
Bien que les promoteurs de ces chatbots revendiquent leur existence, il est difficile de vérifier l’authenticité et la légitimité de ces systèmes. Il est connu que les cyber-fraudeurs tentent souvent de se tromper les uns les autres ; Des recherches antérieures ont montré qu'ils s'arnaquent souvent, ne tiennent pas leurs promesses et offrent un service client médiocre.
Sergey Shykevich, responsable du groupe de renseignement sur les menaces chez la société de sécurité Check Point, affirme que certains signes suggèrent que des personnes utilisent WormGPT. "Il semble que cet outil soit réel ", déclare Shykevich. De plus, le fournisseur derrière l’outil est considéré comme « relativement digne de confiance » et a un historique sur les forums liés à la cybercriminalité.
Le FBI a émis un avertissement indiquant que les cybercriminels évaluent la possibilité d'intégrer l'intelligence artificielle générative dans leurs activités criminelles.
L' Agence européenne de police , Europol, a émis un avertissement similaire. Les forces de l'ordre préviennent que les modèles de langage génératif pourraient permettre aux cybercriminels de commettre des fraudes, de procéder à du phishing et d'effectuer d'autres formes d'ingénierie sociale plus efficacement qu'auparavant, ainsi qu'à améliorer leurs compétences en anglais écrit.
Conférence DragonJAR
La « Conférence sur la sécurité DragonJAR », considérée comme l'un des événements les plus marquants en Colombie et en Amérique latine en matière de sécurité informatique, a eu lieu à Bogotá les 7 et 8 septembre 2023, avec la participation de 600 participants et 16 grandes conférences mondiales en l’écosystème de la cybersécurité.
"Cet événement a été organisé afin de mettre en œuvre des mesures visant à renforcer la protection des informations en raison des risques imminents de cyberattaques auxquels les entreprises et les personnes sont confrontées", a déclaré Jaime Andrés Restrepo, PDG de DragonJar.
Certaines des discussions qui se sont démarquées étaient les suivantes :
« La sécurité informatique dans les processus électoraux » par Gonzalo Nina Mamani et Cristhian Lima Saravia (Bolivie) : ils ont reflété l'importance de la sécurité informatique dans les élections présidentielles et la nécessité d'investir dans la technologie et les protocoles de sécurité pour prévenir la fraude et les manifestations.
« Identification des escroqueries aux crypto-monnaies » par KennBro (Argentine) : où une approche pour détecter les escroqueries aux crypto-monnaies à l'aide d'informations publiques sur Internet et un outil innovant pour simplifier la détection ont été présentées.
« Étude de cas : Destruction d'une entreprise par un ransomware » par Lorenzo Martínez (Espagne) : Explication d'un cas de sécurité intrigant dans lequel une entreprise a été détruite par un ransomware, détaillant l'identification de la vulnérabilité et la méthodologie utilisée pour la résoudre.
« Expérience d'avoir été accusé à tort de piratage d'élections présidentielles » par Paulino Calderon (Mexique) : Il a partagé son expérience personnelle après avoir été accusé à tort de piratage d'élections présidentielles et comment il gère l'affaire.