
La mise en œuvre de ces mises à jour débutera en mai 2024 et à partir de juillet prochain, les contenus générés par l'IA qui ne violent pas les politiques de l'entreprise ne seront plus supprimés.
Avec ces mesures, l'entreprise de Mark Zuckerberg cherchera à répondre à l'utilisation croissante de l'IA pour générer du contenu numérique . Meta reconnaît que la politique initiale, axée principalement sur les vidéos manipulées, est insuffisante compte tenu des progrès de la technologie qui permet désormais également la génération d'audio et de photographies.
Comment fonctionnera le nouveau label

L'un des points forts de cette nouvelle stratégie est le label « Made with AI » , qui sera appliqué aux contenus identifiés comme tels sur la base de la détection de signaux spécifiques dans les métadonnées.
Cela inclut également la participation d'entreprises telles que Google, OpenAI, Microsoft, Adobe et Midjourney , pour permettre aux méta-plateformes d'identifier plus facilement si le contenu a été généré par l'IA.
L'entreprise mettra également en œuvre d'autres mesures pour fournir un meilleur contexte sur l'origine du contenu. Par exemple, si un matériel généré par l’IA présente un risque élevé d’induire en erreur sur un sujet important, une étiquette plus visible sera ajoutée afin que les gens aient plus d’informations et de contexte lorsqu’ils le consultent.
Pourquoi Meta prend ces mesures

L'une des principales raisons de ces changements réside dans les commentaires reçus du comité consultatif sur le méta-contenu. Selon Monika Bickert, vice-présidente de la politique de contenu chez Meta, l'organisme a trouvé l'approche de l'entreprise trop restrictive et a suggéré d'adopter une approche plus large pour traiter le contenu généré par l'IA.
Pour l'exécutif , la décision s'appuie sur l'évolution de l'IA ces dernières années , qui est désormais capable de produire du contenu réaliste sous diverses formes, et pas seulement en vidéo, comme on le pensait à l'origine.
J’assure même que « notre objectif actuel est trop restreint , car il ne couvre que les vidéos créées ou modifiées par l’IA qui donnent l’impression qu’une personne dit quelque chose qu’elle n’a pas dit ». Reconnaître la nécessité de s’adapter aux avancées technologiques.

Ce changement de politique marque un changement important dans l'approche de l'entreprise, qui supprimait jusqu'à présent ce type de contenu sur la base de lignes directrices établies en 2020. Et au cours du processus de mise à jour, l'entreprise a collaboré avec plus de 120 entités , dont des universitaires et des organisations de la société civile de 34 pays, pour recueillir des avis sur la manière de gérer ce type de matériel.
Bickert a également souligné qu'à partir de juillet, Meta cessera de supprimer le contenu généré par l'IA qui ne viole pas les normes communautaires de la plateforme.
Au lieu de cela, l'entreprise continuera à examiner ce contenu avec son réseau de près de 100 vérificateurs de faits indépendants . Si le contenu est considéré comme faux ou modifié, il sera moins montré aux gens et une étiquette superposée contenant des informations supplémentaires sera ajoutée.
Qui sera concerné par le changement ?

Cette nouvelle approche du contenu généré par l'IA affectera les particuliers, les créateurs, ainsi que les entreprises et les annonceurs , qui devront inclure des publicités spécifiques dans les campagnes utilisant des éléments visuels créés ou manipulés par l'IA.
De plus, Meta a rappelé qu'elle continuerait à supprimer toute publication qui viole ses normes communautaires , qu'elle ait été créée par l'IA ou par des humains.
Et en évitant la suppression de contenus manipulés qui ne violent pas d'autres politiques, il vise un équilibre entre la véracité de l'information et le droit des utilisateurs à s'exprimer de manière créative.