
À la veille des élections européennes , une nouvelle loi historique oblige les entreprises technologiques à recourir à des tactiques agressives pour limiter la propagation de la désinformation, une répression sans précédent qui contraste fortement avec l'absence de lois sur les médias sociaux aux États-Unis .
Dans toute l' Union européenne , Microsoft déploie des équipes compétentes dans de nombreuses langues. Meta a lancé des tableaux de bord qui permettent aux États européens de surveiller en temps réel le contenu lié aux élections. Les équipes électorales spécialisées de TikTok se coordonnent dans un « Centre de contrôle de mission » dédié dans son bureau de Dublin .
Ce tourbillon d'activités - une démonstration de force historique pour une industrie habituée à fixer ses propres normes inconstantes pour protéger les élections - répond à la nouvelle loi de l'Union européenne sur les services numériques, entrée en vigueur en août. La loi exige que les grandes entreprises technologiques mettent en œuvre des garanties contre les « effets négatifs sur le discours civique et les processus électoraux », sous peine de lourdes amendes pouvant atteindre 6 % de leurs revenus mondiaux.
Mais les entreprises disposent d'une grande liberté pour mettre en œuvre leurs plans de protection des élections, ce qui soulève la question de savoir quelles mesures sont conformes à la nouvelle loi et si certaines seront suffisantes pour protéger l'un des plus grands exercices démocratiques au monde, alors que près de 400 millions de citoyens de l'UE se rendent aux urnes. .
Les élections constituent un test pour les régulateurs européens , qui ont devancé les autres gouvernements occidentaux en mettant en place des contrôles étendus sur les médias sociaux . Mais l'application de ces règles a commencé il y a moins d'un an, ce qui laisse peu de temps aux régulateurs pour imposer des sanctions aux entreprises qui ne s'y conforment pas avant les élections .

Ces derniers mois, l' Union européenne a ouvert de multiples enquêtes sur les principales plateformes technologiques, abordant leur impact sur les enfants et les adolescents, le traitement des contenus illégaux et la désinformation liée aux élections . Mais la commission n'a imposé aucune sanction en vertu de la loi.
« Il s’agit d’une courbe d’apprentissage lorsqu’il s’agit de l’application des réglementations technologiques en Europe. C'est certainement le cas de la loi sur les services numériques », a déclaré Drew Mitnick, directeur du programme pour la politique numérique à la Fondation Heinrich Böll à Washington .
Ces dernières semaines, les responsables de l’UE ont rappelé à plusieurs reprises aux entreprises leurs nouvelles responsabilités en vertu de la loi. L’ Union européenne a soumis les principales plateformes à des tests de résistance pour s’assurer qu’elles étaient prêtes à voter. Les régulateurs ont effectué des simulations dans lesquelles les entreprises devaient réagir à des scénarios fictifs d’ingérence électorale, en s’exerçant à la manière dont elles géreraient un « deepfake » viral sur leur plateforme ou en manipulant des informations qui aboutiraient à une incitation à la violence.
La semaine dernière, Vera Jourova, une haute responsable de l'UE , a transmis le message directement aux dirigeants de la technologie, se rendant en Californie pour avertir les PDG de grandes entreprises , notamment TikTok , X et Meta , qu'ils doivent se conformer à la loi, au milieu des craintes que la Russie n'exploite. les réseaux sociaux s'immiscent dans les élections européennes .
" Les plateformes savent qu'elles sont désormais soumises à des règles juridiquement contraignantes, ce qui pourrait entraîner des sanctions élevées ", a déclaré Jourova lors d'une conférence de presse avec des journalistes à San Francisco .
La loi a été élaborée il y a des années, avant l’essor de l’intelligence artificielle générative, que les gens peuvent utiliser pour créer rapidement et facilement une vidéo, une image ou un enregistrement audio d’un homme politique disant apparemment quelque chose qui n’a jamais eu lieu. L’ UE a élaboré un ensemble de réglementations régissant l’intelligence artificielle, mais ces réglementations n’entreront pas pleinement en vigueur avant plusieurs années. Cela laisse aux régulateurs un ensemble limité d’outils pour répondre à une technologie qui, selon eux, pourrait stimuler la désinformation au cours d’une année de menaces électorales dans le monde.
L'activité en Europe contraste fortement avec celle des États-Unis , où les sociétés de médias sociaux opèrent en grande partie dans un vide réglementaire. La Cour suprême a entendu ce trimestre des arguments dans un procès alléguant que les efforts des agences fédérales pour se coordonner avec les sociétés de médias sociaux pour lutter contre la désinformation violaient le premier amendement .

À San Francisco , Jourova a posé devant un panneau d'affichage noir avec le logo blanc de X , une entreprise devenue un symbole du paysage en constante évolution des luttes contre la désinformation. Jourova a déclaré que la PDG de X, Linda Yaccarino, avait promis que l'entreprise ferait sa part pour protéger les élections , en promouvant la fonctionnalité Community Notes de la plateforme, qui permet aux utilisateurs d'ajouter de manière collaborative du contexte aux publications potentiellement trompeuses. Mais Jourova s'est montrée sceptique, affirmant aux journalistes qu'il faut de l'expertise pour faire apparaître des informations précises en ligne.
« Il est maintenant temps de
L'échange met en lumière les défis auxquels est confrontée l' Union européenne , alors qu'elle cherche à appliquer le DSA dans un environnement d'information fragmenté. Dans un document de 25 pages publié ce printemps, les régulateurs européens ont recommandé aux plateformes de mener des campagnes d’éducation aux médias, d’appliquer des étiquettes de vérification des faits et d’étiqueter clairement le contenu généré par l’IA. Si les entreprises choisissent de ne pas suivre ces lignes directrices, « elles doivent démontrer à la Commission que les mesures prises sont tout aussi efficaces pour atténuer les risques », selon un communiqué de presse de mars.
Depuis qu'Elon Musk a pris le contrôle de L'année dernière, la Commission européenne a commencé à enquêter sur la gestion par X de contenus illégaux liés à la guerre entre Israël et Gaza , dans le cadre de sa première action contre une entreprise technologique américaine dans le cadre du DSA . Mais près de huit mois après que la commission a envoyé sa première demande à X , elle n'a toujours pas imposé de sanctions à l'entreprise.
Lors de réunions au cours de sa tournée en Californie , Jourova a souligné la nécessité d'un plus grand soutien dans les langues locales européennes et d'une vérification des faits plus rigoureuse. Mais il a déclaré aux journalistes que l' Union européenne avait des préoccupations particulières concernant chaque plateforme, y compris le stockage des données des utilisateurs de l'UE par TikTok , qui appartient à la société chinoise ByteDance .
L' UE a ouvert fin avril une enquête sur l'approche de Meta en matière de modération de la désinformation sur Facebook et Instagram . Il a averti que Meta n'en faisait pas assez pour lutter contre la diffusion de publicités trompeuses sur son service et que la plateforme violait le DSA en abandonnant CrowdTangle , un outil qui permettait aux régulateurs, aux chercheurs et aux journalistes de surveiller les discussions sur des sujets liés aux élections .
L'enquête semble avoir affecté les pratiques de Meta . En mai, la société a lancé des tableaux de bord spécifiques dans les États de l'UE qui permettent aux régulateurs européens de suivre les publications des candidats et les mots-clés spécifiques à leur pays. Lors de la réunion de Jourova avec le PDG de Meta , Mark Zuckerberg, la semaine dernière, les deux hommes ont convenu de travailler ensemble pour améliorer l'accès des chercheurs aux plateformes de Meta .
Pendant ce temps, les groupes de défense continuent de constater des lacunes en matière de conformité. Cette semaine, l’ organisation internationale à but non lucratif Global Witness a déposé une plainte auprès du régulateur européen après avoir constaté que TikTok approuvait des publicités contenant de fausses informations encourageant les gens à voter en ligne et par SMS, enfreignant ainsi les règles de l’UE interdisant la publicité politique payante.
« Ne votez pas en personne à ces élections européennes . De nouveaux rapports révèlent que les bulletins de vote sont altérés par les travailleurs électoraux. « Votez plutôt en envoyant un message au 05505 », indique une annonce.
Le porte-parole de TikTok, Morgan Evans, a déclaré dans un communiqué que les publicités avaient été incorrectement approuvées en raison d'une erreur humaine. L’ entreprise « a immédiatement mis en place de nouveaux processus pour éviter que cela ne se reproduise à l’avenir », a déclaré Evans.
« En Europe , les Big Tech sont désormais sous les projecteurs pour s'assurer qu'elles répondent aux risques que leurs plateformes font peser sur la démocratie », a déclaré Global Witness dans un communiqué. « Avec de nombreuses élections importantes encore à venir au cours de cette année de méga-cycle électoral, les sociétés de médias sociaux doivent bien faire les choses partout dans le monde. »
(c) 2024, Le Washington Post
Nouveau