
La société, créatrice du populaire chatbot ChatGPT , générateur d'images DALL-E et fournisseur de technologie d'IA pour de nombreuses entreprises, dont Microsoft , a déclaré lundi dans un article de blog qu'elle n'autoriserait personne à utiliser sa technologie pour créer des applications à des fins politiques. campagnes et groupes de pression, pour décourager les gens de voter ou pour diffuser des informations erronées sur le processus de vote.
OpenAI a déclaré qu'il commencerait également à placer des filigranes intégrés – un outil permettant de détecter les photos créées par l'IA – sur les images réalisées avec son imageur DALL-E « plus tôt cette année ».
"Nous nous efforçons d'anticiper et de prévenir les abus pertinents, tels que les deepfakes trompeurs, les opérations d'influence à grande échelle ou les chatbots se faisant passer pour des candidats", a déclaré OpenAI dans le billet de blog.
Les partis politiques, les agents de l’État et les entrepreneurs Internet opportunistes utilisent les médias sociaux depuis des années pour diffuser de fausses informations et influencer les électeurs. Mais des militants, des politiciens et des chercheurs en IA ont exprimé leur inquiétude quant au fait que les chatbots et les générateurs d’images pourraient accroître la sophistication et le volume de la désinformation politique.
Les mesures d' OpenAI interviennent après que d'autres entreprises technologiques ont également mis à jour leurs politiques électorales pour faire face à la montée de l'IA . En décembre, Google a annoncé qu'il limiterait les types de réponses que ses outils d'IA donnent aux questions liées aux élections.
Il a également déclaré qu’il exigerait que les campagnes politiques lui achètent des espaces publicitaires révélant quand elles utilisent l’IA. Meta, la société mère de Facebook, exige également que les annonceurs politiques révèlent s'ils ont utilisé l'intelligence artificielle .

Mais les entreprises ont du mal à gérer leurs propres politiques de désinformation électorale. Bien qu'OpenAI interdise l'utilisation de ses produits pour créer du matériel destiné aux campagnes électorales, un rapport du Washington Post publié en août a montré que ces politiques ne s'appliquaient pas.
Il y a déjà eu des cas très médiatisés de mensonges électoraux générés par les outils d’IA. En octobre, le Washington Post a rapporté que le haut-parleur Alexa d' Amazon avait faussement déclaré que l'élection présidentielle de 2020 avait été volée et en proie à la fraude électorale.
La sénatrice Amy Klobuchar (Démocrate du Minnesota ) a exprimé sa crainte que ChatGPT puisse interférer avec le processus électoral, en disant aux gens de se rendre à une fausse adresse lorsqu'on leur demande quoi faire si les files d'attente sont trop longues dans un bureau de vote.
Si un pays souhaitait influencer le processus politique américain, il pourrait, par exemple, créer des chatbots ressemblant à des humains qui promeuvent des discours controversés sur les réseaux sociaux américains, plutôt que d’avoir à payer des agents humains pour le faire. Les chatbots pourraient également créer des messages personnalisés adaptés à chaque électeur, ce qui pourrait accroître leur efficacité à faible coût.
Dans le billet de blog, OpenAI a déclaré qu'il « s'efforçait de comprendre dans quelle mesure nos outils pourraient être efficaces pour la persuasion personnalisée ». La société a récemment ouvert son « GPT Store », qui permet à chacun de former facilement un chatbot en utilisant ses propres données.
Les outils d’IA générative ne savent pas ce qui est vrai ou faux. Au lieu de cela, ils prédisent ce que pourrait être une bonne réponse à une question sur la base de milliards de phrases récupérées sur Internet. Ils fournissent souvent un texte de type humain, plein d’informations utiles. Ils inventent aussi souvent de fausses informations et les font passer pour des faits.
Les images créées par l’IA sont déjà apparues partout sur le Web, y compris dans la recherche Google , se présentant comme de véritables images. Ils ont également commencé à apparaître dans les campagnes électorales américaines.

L'année dernière, une publicité diffusée par la campagne du gouverneur de Floride , Ron DeSantis, utilisait ce qui semblait être des images générées par l'IA de Donald Trump serrant dans ses bras l'ancien conseiller en matière de coronavirus de la Maison Blanche, Anthony S. Fauci . On ne sait pas quel imageur a été utilisé pour réaliser les images.
D'autres sociétés, telles que Google et Adobe , fabricant de Photoshop , ont annoncé qu'elles utiliseraient également des filigranes sur les images générées par leurs outils d'IA. Mais cette technologie n’est pas une solution miracle contre la propagation de fausses images d’IA.
Les filigranes visibles peuvent être facilement recadrés ou supprimés. Les cryptographies intégrées, qui ne sont pas visibles à l’œil humain, peuvent être déformées simplement en retournant l’image ou en changeant sa couleur.
Les entreprises technologiques affirment qu’elles s’efforcent d’améliorer ce problème et de les rendre inviolables, mais jusqu’à présent, aucune ne semble avoir trouvé comment y parvenir efficacement.
(*) Le Washington Post
(*) Gerrit De Vynck est journaliste technologique au Washington Post. Il écrit sur Google, l'intelligence artificielle et les algorithmes qui façonnent de plus en plus la société. Il a auparavant couvert le secteur technologique pendant sept ans chez Bloomberg News.