
ChatGPT est l'une des intelligences artificielles les plus remarquables du moment, en raison de sa facilité à créer des textes avec des indications de base. Quelque chose qui a attiré l'attention des experts en cybersécurité, qui soulignent que le programme peut facilement produire du code malveillant.
Check Point Research a mené l'enquête et utilisé les outils OpenAI ChatGPT et Codex pour concevoir des e-mails malveillants, des scripts et une chaîne d'infection complète.
Ils l'ont fait en faisant référence au fait que des codes d'attaque, qui ont été créés grâce à l'intelligence artificielle, sont diffusés dans des forums sur le Dark Web .
"ChatGPT a le potentiel de modifier considérablement le paysage des cybermenaces. Désormais, toute personne disposant de ressources minimales et d'une connaissance nulle du code peut facilement l'exploiter », a déclaré Manuel Rodríguez , responsable de l'ingénierie de sécurité de l'entreprise pour l'Amérique latine .

L'IA pour créer des cyberattaques
Pour l'enquête, les responsables avaient pour objectif de concevoir un code qui leur permettra d'avoir accès à distance à d'autres ordinateurs. Quelque chose qu'ils ont obtenu.
En utilisant les deux plates-formes d'intelligence artificielle, ils ont créé un e-mail de phishing, avec un document Excel contenant un code malveillant capable de télécharger des shells inversés, qui est la méthode de connexion à distance pour l'attaque.
Avec le code, il avait la capacité de se faire passer pour une société d'hébergement et de produire un VBA malveillant dans un document Excel, qui est le propre langage de programmation de Microsoft pour cette application de calcul.
D'autre part, grâce au contenu généré avec le codex IA, ils ont pu exécuter un shell inversé sur une machine Windows pour se connecter à une adresse IP spécifique et exécuter une analyse complète d'un ordinateur externe à distance.
Ce qui consolide un package d'attaque complet pour un cybercriminel, qui est à portée de main dans un outil gratuit et dans un processus qui n'a besoin que des indications appropriées pour obtenir un résultat pouvant aider à propager les attaques informatiques, qui en 2022 ont augmenté de 28 %.
Une situation qui met en alerte le potentiel de l'intelligence artificielle, dans des outils tels que ChatGPT et Codex, qui ont également été utilisés pour des idées positives, mais entre de mauvaises mains, ils peuvent causer beaucoup de dégâts.
« Il est facile de générer des e-mails et du code malveillants. Je pense que ces technologies d'intelligence artificielle représentent un autre pas en avant dans l'évolution dangereuse de cybercapacités de plus en plus sophistiquées et efficaces », prévient Rodríguez.

Les données ChatGPT pourraient être supprimées
Une enquête d' Epoch AI , une organisation qui étudie le développement de l'intelligence artificielle, assure que 2026 est l'année maximale pour laquelle les centres de données actuels de haute qualité sont conçus, qui collectent les données pour la création de contenu à partir de ces technologies. .
Cela génère une alerte sur des plateformes telles que ChatGPT, DALL·E 2 et Midjourney , qui utilisent cet ensemble d'informations pour générer leur contenu par le biais de texte et d'apprentissage automatique.
La collecte d'informations pour ces jeux de données se fait publiquement et à grande échelle afin que la plateforme puisse apprendre correctement. De plus, des humains sont impliqués dans le processus car il existe un filtre important pour « nettoyer » les données manuellement et répondre de manière appropriée aux demandes des utilisateurs.
Les responsables de l'étude assurent qu'il s'agit d'un processus lent et coûteux, et bien qu'il existe des outils, tels que l'intelligence artificielle elle-même, les utiliser pour examiner les modèles comporte un taux élevé de risques qui peuvent rendre le processus encore plus compliqué.
Continuer à lire: