
L'intelligence artificielle pourrait servir d'outil accessible aux pirates pour créer différents virus et logiciels malveillants, comme l'a rapporté le Federal Bureau of Investigation ( FBI ) des États-Unis, qui a assuré que les capacités de génération de ce type de logiciel peuvent être utilisées dans le cadre de cyberattaques. .
Pour l'agence américaine, les programmes d'intelligence artificielle peuvent non seulement servir d'outils d'assistance à la génération de textes , d'images ou de vidéos, mais ils sont aussi impliqués dans des actes comme les escroqueries et l'amélioration de stratégies criminelles plus graves comme le terrorisme .
Un responsable de l'organisation a indiqué à divers médias américains lors d'une réunion téléphonique rapportée par PCMag que les conséquences de l'intégration de l'IA dans la vie quotidienne devraient générer une augmentation de cette tendance à l'utilisation négative. Même au cours de l'année 2023, il a été détecté qu'un groupe de cybercriminels manipulait ChatGPT pour lui faire générer du code pour la création de malware .
Dans le cadre de l'enquête menée par le FBI , il a été identifié que les cybercriminels se rapprochent encore plus de l'utilisation de systèmes d'intelligence artificielle librement accessibles ou open source qui peuvent être trouvés dans des coins cachés d'Internet tels que le Deep Web , où ils sont partagés par d'autres criminels .

L'intelligence artificielle pour les arnaques
Bien que le développement de logiciels malveillants ait augmenté avec l'utilisation d'outils d'intelligence artificielle et soit une norme de plus en plus courante, ces programmes sont également utilisés pour générer des plates-formes supplémentaires qui prennent en charge l'exécution de cyberattaques. .
De fausses pages Web qui téléchargent du code malveillant sur un ordinateur ou des sites qui se font passer pour des entreprises ou des marques sont également développées à l'aide de cette technologie pour apporter un plus grand réalisme aux escroqueries virtuelles qui peuvent violer la confidentialité des données ou voler des informations bancaires .
Dans les derniers stades de développement, ils créeraient des « virus polymorphes », qui peuvent échapper à la protection des programmes antivirus en raison de leur capacité à modifier la forme de leur code de programmation pour infiltrer les fichiers informatiques.
L'une des pratiques les moins courantes, mais que l'on retrouve également face aux dangers des cybercriminels , est la possibilité qu'ils ont de générer des portraits modifiés avec intelligence artificielle dans lesquels de fausses images sexuelles sont générées avec les visages des victimes.

Cette forme d'extorsion consiste à indiquer aux utilisateurs concernés qu'ils doivent effectuer des paiements aux criminels pour empêcher la diffusion des photographies retouchées sur Internet .
Pour le moment, il n'y a toujours pas d'idée exacte sur le nombre d'attaques avec au moins un niveau considérable de participation de l'intelligence artificielle, mais le FBI considère que le nombre peut augmenter en raison de la facilité d'accès des criminels à cette technologie .
Même ainsi, Bill Gates a estimé que bien que l'intelligence artificielle puisse être impliquée dans diverses cyberattaques, cela ne réduit pas ses capacités à avoir une influence positive. Le fondateur de Microsoft a indiqué que "de nombreux problèmes générés par ce type de programme peuvent également être résolus avec l'IA ", comme c'est le cas avec la sécurité en ligne .
L'homme d'affaires a également estimé que l'intelligence artificielle présente des risques qui, s'ils sont réels, sont également gérables si l'on considère que « ce n'est pas la première fois que l'innovation introduit de nouveaux risques qu'il faut maîtriser. Nous l'avons déjà fait », a-t-il déclaré.