
L'intelligence artificielle automatise la création de fausses nouvelles , stimulant une explosion de contenus Web qui imitent des articles basés sur des événements réels et diffusent à la place de fausses informations sur les élections, les guerres et les catastrophes naturelles. Depuis mai 2023, les sites Internet hébergeant de faux articles créés par l’intelligence artificielle ont augmenté de plus de 1 000 %, passant de 49 à plus de 600, selon NewsGuard, une organisation qui traque la désinformation.
Historiquement, les opérations de propagande se sont appuyées sur des armées de travailleurs mal payés ou sur des organisations de renseignement hautement coordonnées pour créer des sites apparemment légitimes. Mais l’intelligence artificielle permet à presque tout le monde de créer plus facilement ce média, qu’il fasse partie d’une agence d’espionnage ou qu’il soit un adolescent dans son sous-sol, produisant un contenu parfois difficile à différencier de l’actualité réelle.
Une enquête de NewsGuard a révélé qu'un article généré par AI racontait une histoire fabriquée sur le psychiatre de Benjamin Netanyahu , affirmant qu'il était décédé et laissant une note suggérant l'implication du Premier ministre israélien. Apparemment, le psychiatre n’existe pas, mais la nouvelle est apparue dans une émission de télévision iranienne et a été diffusée dans les médias arabes, anglais et indonésiens, ainsi que sur TikTok, Reddit et Instagram.

La prolifération croissante de contenus polarisants et trompeurs peut rendre difficile la détermination de la vérité, nuisant ainsi aux candidats politiques, aux chefs militaires et aux efforts de secours. Les experts en désinformation affirment que la croissance rapide de ces sites est particulièrement inquiétante à l’approche des élections de 2024.
"Certains de ces sites génèrent des centaines, voire des milliers d'articles par jour", a déclaré Jack Brewster, un chercheur de NewsGuard qui a mené l'enquête. "C'est pourquoi nous l'appelons le prochain grand diffuseur de désinformation ." L’intelligence artificielle générative a inauguré une ère où les chatbots, les créateurs d’images et les cloneurs de voix peuvent produire du contenu qui semble avoir été créé par des humains.
Des présentateurs de journaux bien habillés, générés par l’IA, crachent de la propagande pro-chinoise, amplifiée par les botnets pro-Pékin. En Slovaquie, les voix des hommes politiques candidats aux élections sont clonées afin qu'ils puissent dire des choses controversées qu'ils n'ont jamais dites, quelques jours avant que les électeurs ne se rendent aux urnes. Un nombre croissant de sites Web, aux noms génériques comme iBusiness Day ou Ireland Top News , diffusent de fausses nouvelles qui semblent authentiques, dans des dizaines de langues, de l'arabe au thaï. Les lecteurs peuvent facilement être induits en erreur par ces sites Web.

Global Village Space, qui a publié l'article sur le psychiatre présumé de Netanyahu, est inondé d'articles sur une variété de sujets sérieux. Il existe des articles détaillant les sanctions américaines contre les fournisseurs d’armes russes ; les investissements du géant pétrolier Saudi Aramco au Pakistan ; et les relations de plus en plus ténues entre les États-Unis et la Chine.
Le site contient également des essais rédigés par un expert d'un groupe de réflexion sur le Moyen-Orient, un avocat formé à Harvard et le directeur exécutif du site, Moeed Pirzada, présentateur de journal télévisé du Pakistan. (Pirzada n'a pas répondu à une demande de commentaires. Deux contributeurs ont confirmé avoir écrit des articles qui paraissent dans Global Village Space.)
Mais parmi ces histoires ordinaires se trouvent des articles générés par l'IA, a déclaré Brewster, comme l'article sur le psychiatre de Netanyahu, qui a été requalifié de « satire » après que NewsGuard a contacté l'organisation au cours de son enquête. NewsGuard affirme que l'histoire semble avoir été basée sur un article satirique publié en juin 2010, qui faisait des affirmations similaires sur la mort d'un psychiatre israélien.
La coexistence d’informations réelles et d’informations générées par l’intelligence artificielle rend les histoires trompeuses plus crédibles. "Il y a des gens qui n'en savent tout simplement pas assez sur les médias pour savoir que c'est faux", déclare Jeffrey Blevins, expert en désinformation et professeur de journalisme à l'Université de Cincinnati. "C'est trompeur."

Des sites Web similaires à Global Village Space pourraient proliférer lors des élections de 2024, devenant ainsi un moyen efficace de diffuser de la désinformation, selon les médias et les experts en IA.
Les sites fonctionnent de deux manières, explique Brewster. Certaines histoires sont créées manuellement, en demandant aux chatbots des articles pour amplifier un certain récit politique et en publiant le résultat sur un site Web. Le processus peut également être automatique : les articles contenant certains mots-clés sont recherchés et introduits dans un vaste modèle de langage qui les réécrit pour les rendre uniques et éviter les accusations de plagiat. Le résultat est automatiquement publié sur Internet.
NewsGuard localise les sites générés par l'IA en recherchant des messages d'erreur ou tout autre langage « indiquant que le contenu a été produit par des outils d'IA sans édition appropriée », indique l'organisation.
Les motivations pour créer ces sites varient. Certains cherchent à influencer les convictions politiques ou à semer le chaos . Selon Brewster, d'autres sites produisent un contenu polarisant pour attirer des clics et générer des revenus publicitaires. Mais la capacité à dynamiser les faux contenus constitue un risque de sécurité important, a-t-il ajouté.

La technologie alimente la désinformation depuis longtemps. En el periodo previo a las elecciones de 2020, las granjas de trolls de Europa del Este -grupos profesionales que promueven la propaganda- crearon grandes audiencias en Facebook difundiendo contenidos provocativos en páginas de grupos negros y cristianos, llegando a 140 millones de usuarios au mois.
Selon Poynter, une organisation de surveillance des médias, les sites de journalisme « pink-slime », du nom du sous-produit de la viande, apparaissent souvent dans les petites villes où les médias locaux ont disparu, générant des articles qui profitent à ceux qui financent l'opération.
Mais Blevins a déclaré que ces techniques nécessitent plus de ressources que l’intelligence artificielle. "Le danger réside dans la portée et l'ampleur de l'IA, en particulier lorsqu'elle est combinée à des algorithmes plus sophistiqués", a-t-il déclaré. "Il s'agit d'une guerre de l'information d'une ampleur jamais vue auparavant."
Il n’est pas clair si les agences de renseignement utilisent les informations générées par l’IA pour des campagnes d’influence étrangère, mais c’est une préoccupation majeure. "Je ne serais pas du tout surpris si cela était utilisé - certainement l'année prochaine avec les élections", a déclaré Brewster. "Il est difficile de ne pas voir un politicien créer un de ces sites pour générer du contenu flou sur lui-même et de la désinformation sur son adversaire."

Blevins a déclaré que les gens devraient surveiller les indices dans les articles, les « signaux d'alarme » comme « une grammaire vraiment bizarre » ou des erreurs dans la construction des phrases. Mais l’outil le plus efficace consiste à accroître l’éducation aux médias du lecteur moyen.
« Il faut que les gens soient conscients de l'existence de ce type de sites. C'est le genre de dégâts qu'ils peuvent causer", a-t-il déclaré. « Mais nous devons également reconnaître que toutes les sources ne sont pas également crédibles. Ce n'est pas parce qu'un site prétend être un site d'information qu'il y a un journaliste... qui produit du contenu.
La réglementation, a-t-il ajouté, est largement inexistante. Il peut être difficile pour les gouvernements de réprimer les contenus de fausses informations, de peur de porter atteinte aux protections de la liberté d’expression. Cela laisse l’affaire entre les mains des sociétés de médias sociaux, qui n’ont pas fait du bon travail jusqu’à présent.
Il n'est pas possible de traiter rapidement le grand nombre de sites de ce type. «C'est comme jouer à la taupe», explique Blevins. "Vous découvrez un site, vous le fermez et un autre apparaît ailleurs", ajoute-t-il. "Vous n'arriverez jamais à rattraper complètement votre retard."
(c) 2023, Le Washington Post