
C'est la principale indication que les groupes de cyberespionnage parrainés par l'État, qui tourmentent les entreprises et les gouvernements depuis des années, améliorent leurs tactiques en s'appuyant sur des technologies disponibles gratuitement, telles que des modèles de langage longs.
Les experts en sécurité ont averti qu'une telle évolution aiderait les pirates informatiques à recueillir davantage de renseignements, à accroître leur crédibilité dans leurs tentatives de tromper leurs cibles et à pénétrer plus rapidement dans les réseaux des victimes. OpenAI a annoncé mercredi avoir supprimé les comptes associés à des pirates informatiques parrainés par l'État.
"Les acteurs de la menace, comme les défenseurs, se tournent vers l'IA, y compris les LLM, pour améliorer leur productivité et exploiter des plates-formes accessibles qui pourraient faire progresser leurs objectifs et leurs techniques d'attaque", a déclaré Microsoft dans le rapport.
Selon la société, aucune attaque significative n’a été associée à l’utilisation de la technologie LLM. Microsoft a investi 13 milliards de dollars dans OpenAI, la startup à l'origine de ChatGPT.
Parmi les groupes de piratage qui ont utilisé l'IA dans leurs cyberopérations, citons Forest Blizzard, soutenu par la Russie, qui a récemment compromis les courriels de hauts dirigeants de Microsoft.

Le groupe nord-coréen Velvet Chollima, qui a usurpé l'identité d'organisations non gouvernementales pour espionner les victimes, et les pirates informatiques chinois de Charcoal Typhoon, qui se concentrent principalement sur Taiwan et la Thaïlande, ont également utilisé cette technologie, selon Microsoft.
Un groupe iranien lié aux Gardiens de la révolution islamique du pays a profité des LLM en créant des courriels trompeurs , dont l'un a été utilisé pour attirer des féministes célèbres et un autre se faisant passer pour une agence de développement international.
Les conclusions de Microsoft interviennent dans un contexte d'inquiétudes croissantes de la part des experts et du public quant aux risques sérieux que l'IA pourrait présenter pour le monde, notamment la désinformation et les pertes d'emplois. En mars 2023, plus d’un millier de personnes, dont d’éminents dirigeants de grandes entreprises technologiques, ont signé une lettre ouverte mettant en garde contre les risques que l’IA pourrait présenter pour la société. Plus de 33 000 personnes ont signé la lettre.
(*) Le Washington Post
(*) Sana Pashankar