
(Washington, États-Unis) À l'autre bout du fil, la voix du président des États-Unis, Joe Biden . «Voter ce mardi ne fera que faciliter la tâche des républicains dans leur mission de réélire Donald Trump. Votre vote fait une différence en novembre, pas ce mardi », indique un message reçu par des milliers de citoyens de l'État du New Hampshire, décourageant de voter lors des primaires du mois dernier.
Le numéro d'où provient l'appel était le téléphone personnel de Kathy Sullivan , ancienne présidente du Parti démocrate de l'État et qui est désormais membre du comité de campagne local de Biden.
Mais l'appel était faux. Non seulement parce que la voix de Biden a été créée grâce à l’intelligence artificielle, mais aussi parce que l’origine de l’appel a été falsifiée. "Il s'agit d'une ingérence électorale pure et simple et d'une tentative claire de me harceler ainsi que d'autres électeurs du New Hampshire qui envisagent d'écrire le nom de Joe Biden sur le bulletin de vote", a déclaré Sullivan.

Ce n’est pas la première fois que l’intelligence artificielle (IA) est utilisée pour tenter d’interférer dans une élection. En Slovaquie , en septembre de l'année dernière et dans le cadre de la campagne électorale pour les élections législatives chargée de propagande pro-russe, on a tenté d'interférer avec un faux audio diffusé 48 heures avant l'ouverture des bureaux de vote. Là, deux candidats de partis différents ont été faussement entendus discuter de la manière de voler les élections.
Cette 2024 , une année pleine d'élections dans le monde avec près de 80 élections dans le monde - y compris dans des territoires géants comme l'Inde, les États-Unis, la Russie et le Parlement de l'Union européenne - la peur de la façon dont l'intelligence artificielle tente de tromper les électeurs est en tête de l’agenda des organisations qui défendent la démocratie.
Lors d’un événement organisé cette semaine par le groupe de réflexion Brooking Institution à Washington, des experts ont analysé les différentes implications que l’IA peut apporter dans les contextes de campagne électorale.
La crainte de certains n’est pas seulement que les politiciens puissent utiliser l’IA pour tromper, mais aussi qu’ils se cachent derrière elle pour tenter de dissimuler des erreurs ou des déclarations réelles. "La simple existence de contenus générés par l'IA a permis à des personnalités politiques actuellement candidates à des fonctions publiques de blâmer les deepfakes et de nier l'authenticité de leurs déclarations et actions passées", a déclaré Amy Liu , conseillère présidentielle à la Brookings Institution.
« Le contenu généré par l’IA peut constituer de réelles menaces en période électorale. Et ils peuvent favoriser la confusion sur ce qui est réel ou non, voire jeter le doute sur des informations et des contenus authentiques », a ajouté Liu.

Entre la fin du monde et un changement similaire à Photoshop
Les experts ont souligné lors de l’événement que les fausses informations existaient déjà avant l’IA. En fait, selon les données présentées par Valerie Wirtschafter, experte en intelligence artificielle à la Brookings Institution, parmi tous les contenus contestés par les utilisateurs de X (ex-Twitter) comme étant faux, seulement 1 % ont été générés par l'IA.
Olga Belogolova est directrice des technologies émergentes et professeur à l'université Johns Hopkins. Elle a auparavant travaillé pour Meta en dirigeant la politique de contre-influence. Lors de l'événement, il a expliqué que dans cette entreprise, propriétaire de plateformes telles que Facebook, Instagram et WhatsApp, l'un de ses défis était de contenir « la politique de comportements coordonnés et inauthentiques », connue sous le nom de « fermes à trolls ». C’est-à-dire « des acteurs étatiques ou non étatiques qui participent à différents types de manipulation ».
De cette expérience, il a compris, après avoir étudié pendant des années les opérations d’influence russes, « que parfois les acteurs de la menace sont plus intéressés à faire croire à rien du tout plutôt qu’à croire en n’importe quoi ». C’est-à-dire que ce qu’ils cherchent, plus que d’influencer avec un contenu particulier, c’est créer le chaos. "Et c'est quelque chose que j'ai constaté dans le système de renseignement militaire russe, ainsi que dans l'Internet Research Agency et d'autres fermes de trolls."
Dans ce contexte, pour Belogolova, les défis posés par l’IA ne doivent pas être compris comme quelque chose de différent de ce qui existait déjà. "Certains des gros titres que nous avons vus ces dernières semaines, l'un des termes utilisés pour parler d'élections et d'intelligence artificielle ont été 'apocalypse' , comme si le monde était sur le point de finir parce que l'IA générative serait utilisée lors des élections", a critiqué le chercheur.
"Combien de nos problèmes sont fondamentalement différents en raison de l'intelligence artificielle et des nouvelles techniques et combien d'entre eux sont des choses qui nous inquiétaient auparavant?", a ajouté Belogolova, qui a rappelé qu'en 1988, lors de la sortie de la première version de Photoshop, un débat similaire avait eu lieu. sur l'influence que cela allait avoir sur les campagnes électorales.
« Je pense qu'il est toujours intéressant de revenir sur l'histoire. La semaine dernière, j'ai eu une conférence avec mes étudiants pour parler d'une sorte d'évolution de l'environnement de l'information, y compris des choses comme l'imprimerie et la radio, et des moments où certains êtres humains étaient effrayés par les nouvelles technologies et comment ils y réagissaient, a-t-il souligné.

Le rôle des plateformes : avantages et risques du marquage des contenus avec l'IA
Arvind Narayanan, directeur du Technology Policy Center de l'Université de Princeton, s'est montré enthousiasmé par cette décision. «J'étais heureux de voir cette annonce de Meta. "J'ai plaidé pour ce type d'étiquetage", a-t-il déclaré. "Je suis optimiste que cela donnera aux gens une bonne idée de l'évolution rapide des capacités de l'IA en général, ce qu'ils n'ont pas actuellement, je pense."
Belogolova a cependant ajouté une nuance et s'est interrogée sur les effets secondaires de l'étiquetage, en particulier sur le fait que cela génère le sentiment chez le public que tout ce qui n'a pas cette étiquette est réel alors qu'il ne le sera pas nécessairement. Il est donc important pour l’expert que la recherche soit menée en impliquant le public.
« Comment les gens consomment-ils ces étiquettes ? « Est-ce que cela provoquera une sorte de réaction lorsque les gens le verront ? » suggère-t-il de demander. « Il existe un modèle qui détecte ces images qui pourraient être artificielles mais n'en détecte pas d'autres. Cela signifie-t-il que vous pouvez faire confiance à tout le monde ? » a-t-il demandé.
Une autre contre-indication à l’étiquetage est qu’il aborde le problème de la désinformation uniquement sous l’angle du contenu et que la tromperie ne se produit pas nécessairement uniquement dans ce qui est publié mais dans la manière dont cela est fait. "Ils partagent quelque chose de réel, partagent une actualité provenant d'un média légitime, mais l'utiliser pour tromper et donc se fier uniquement au contenu peut être quelque peu problématique", a déclaré Belogolova.
En ce sens, Laura Edelson , professeur à la Northeastern University, a déclaré qu'il existe certains mécanismes permettant de détecter les mécanismes trompeurs en examinant non seulement le contenu. « De nombreux modèles utilisés pour générer du contenu IA peuvent également être utilisés pour détecter le même contenu », a-t-il déclaré. En ce sens, il a assuré qu’il existe un mécanisme appelé « détection de position », avec lequel « de grands modèles de langage peuvent être utilisés pour regrouper de nombreuses déclarations similaires, en particulier les théories du complot ».
«Je pense que c'est une approche très prometteuse. Il existe d’autres approches tout aussi prometteuses pour toutes les plates-formes afin d’identifier la vidéo ou l’audio généré par l’IA beaucoup plus tôt que les méthodes manuelles », a ajouté Edelson.
L’expert laisse néanmoins une question : « Pouvons-nous construire ces systèmes assez rapidement pour faire face à la menace ?
Un autre élément dans lequel les plateformes peuvent jouer un rôle est la modération, a déclaré Narayanan. « Aider les gens à comprendre la crédibilité de différentes organisations. Sur Twitter, supprimer la coche bleue était évidemment un grand pas en arrière, mais quelles sont les avancées que des plateformes plus responsables peuvent mettre en œuvre ? Je pense que c'est toujours une question qui mérite d'être explorée. "Nous n'avons pas de réponses claires."