
Les principales sociétés d'intelligence artificielle prévoient de signer un « accord » dans lequel elles s'engagent à développer une technologie pour identifier, étiqueter et contrôler les images, vidéos et enregistrements audio générés par l'intelligence artificielle dans le but de tromper les électeurs avant les élections cruciales. organisé cette année dans plusieurs pays.
Cependant, l'accord, développé par Google , Microsoft et Meta , ainsi qu'OpenAI , Adobe et TikTok , n'interdit pas le contenu politique trompeur généré par l'IA , selon une copie obtenue par le Washington Post . X , anciennement Twitter, n'a pas signé l'accord.
Au lieu de cela, le document équivaut à un manifeste déclarant que le contenu généré par l'IA , dont une grande partie est créée par les outils des entreprises et publié sur leurs plateformes, présente des risques pour des élections équitables , et décrivant des mesures pour tenter d'atténuer ce risque, comme l'étiquetage. contenu suspect en matière d’IA et sensibiliser le public aux dangers de l’IA .

« La génération et la distribution intentionnelles et non divulguées de contenus électoraux trompeurs basés sur l’IA peuvent induire le public en erreur », indique l’accord.
D'autres entreprises pourraient rejoindre l'accord. « Dans une année critique pour les élections mondiales, les entreprises technologiques travaillent sur un accord pour lutter contre l’utilisation trompeuse de l’IA ciblant les électeurs. "Adobe, Google, Meta, Microsoft, OpenAI, TikTok et d'autres travaillent ensemble pour faire avancer cet objectif commun et nous sommes impatients de finaliser et de présenter les détails vendredi lors de la conférence sur la sécurité de Munich ", a déclaré le porte-parole de Microsoft, David Cuddy, dans un communiqué. relevé envoyé par email.
Les images générées par l’intelligence artificielle , ou « deepfakes », existent depuis plusieurs années. Mais l’année dernière, ils ont rapidement amélioré leur qualité, au point que certaines fausses vidéos, images et enregistrements audio sont difficiles à distinguer des vrais. De plus, les outils permettant de les créer sont désormais largement disponibles, ce qui facilite grandement leur production.

Les contenus générés par l’intelligence artificielle sont déjà apparus dans les campagnes électorales du monde entier. L'année dernière, une publicité soutenant l'ancien candidat républicain à la présidentielle, Ron DeSantis, a utilisé l'IA pour imiter la voix de l'ancien président Donald Trump . Au Pakistan , le candidat à la présidentielle Imran Khan a utilisé l'IA pour prononcer des discours depuis sa prison. En janvier, un robot se faisant passer pour le président Biden a encouragé les gens à ne pas voter lors des primaires du New Hampshire . Les appels utilisaient une version générée par l'IA de la voix de Biden .
Les entreprises technologiques subissent la pression des régulateurs, des chercheurs en IA et des militants politiques pour freiner la propagation de faux contenus électoraux. Le nouvel accord est similaire à un engagement volontaire que les mêmes entreprises, ainsi que plusieurs autres, ont signé en juillet à la suite d'une réunion à la Maison Blanche , au cours de laquelle elles se sont engagées à essayer d'identifier et d'étiqueter les faux contenus d'IA sur leurs sites Web. Dans le nouvel accord, les sociétés s'engagent également à informer les utilisateurs sur le contenu trompeur de l'IA et à faire preuve de transparence dans leurs efforts pour identifier les deepfakes .
Les entreprises technologiques ont également déjà leurs propres politiques concernant le contenu politique généré par l’IA . TikTok n'autorise pas les faux contenus provenant de personnalités publiques lorsqu'ils sont utilisés à des fins politiques ou commerciales. Meta , la société mère de Facebook et Instagram , exige que les annonceurs politiques révèlent s'ils utilisent l'IA dans les publicités de leurs plateformes. YouTube demande aux créateurs d'étiqueter le contenu généré par l'IA qui semble réaliste lorsqu'ils le publient sur le site vidéo appartenant à Google .

Cependant, les tentatives visant à créer un système complet dans lequel le contenu de l’IA serait identifié et étiqueté sur les réseaux sociaux n’ont pas encore abouti. Google a présenté sa technologie de « watermarking », mais n’impose pas à ses clients de l’utiliser. Adobe , propriétaire de Photoshop , s'est positionné comme un leader dans le contrôle du contenu de l'IA , mais son propre site Web de photos a récemment été rempli de fausses images de la guerre de Gaza .
(c) 2024, Le Washington Post