Lorsque Gabi Belle a découvert qu'une photo d'elle nue circulait sur Internet , son corps s'est figé. L' influenceuse YouTube n'avait jamais posé pour l' image , qui la montrait debout dans un champ et sans vêtements. Je savais que ça devait être faux.
Mais lorsque Belle, 26 ans, a envoyé un message à un collègue pour lui demander de l'aide pour supprimer l' image , il lui a dit qu'il y avait près de 100 fausses photos réparties sur Internet , la plupart hébergées sur des sites Web connus pour héberger de la pornographie générée par l'intelligence artificielle (IA) . Selon Belle, elles ont été supprimées en juillet, mais de nouvelles images sont déjà apparues dans lesquelles elle apparaît dans des situations sexuelles graphiques .
"Je me suis sentie dégoûtée et violée", a déclaré Belle dans une interview. "Ces parties intimes ne sont pas destinées à être vues par le monde entier parce que je n'y ai pas consenti. C'est donc très étrange que quelqu'un fasse des images de moi.
L’intelligence artificielle est à l’origine d’une augmentation sans précédent des fausses images et vidéos pornographiques cette année . Ceci est rendu possible par l'essor d'outils d' IA bon marché et faciles à utiliser qui peuvent « déshabiller » les personnes sur des photographies - en analysant à quoi ressemblerait leur corps nu et en l'insérant dans une image - ou en changeant de manière transparente un visage dans une vidéo pornographique . .

Sur les 10 principaux sites Web hébergeant des photos pornographiques générées par l'IA , les faux nus ont grimpé de plus de 290 % depuis 2018, selon l'analyste du secteur Geneviève Oh. Des célébrités et des personnalités politiques telles que la représentante de New York Alexandria Ocasio-Cortez apparaissent sur ces sites aux côtés d'adolescentes normales, dont les images ont été exploitées par de mauvais acteurs pour inciter à la honte, extorquer ou vivre des fantasmes privés.
Les victimes ont peu de ressources. Il n'existe pas de loi fédérale réglementant la pornographie deepfake , et seuls quelques États ont adopté des réglementations en la matière. Le décret sur l’IA publié lundi 30 octobre 2023 par le président Biden recommande, mais n’oblige pas, les entreprises à étiqueter les photos , vidéos et audio générés par l’IA pour indiquer qu’ils sont l’œuvre d’un ordinateur.
Parallèlement, les juristes préviennent que les fausses images d'IA pourraient ne pas être protégées par le droit d'auteur sur les images personnelles , car elles sont basées sur des ensembles de données contenant des millions d' images . "Il s'agit clairement d'un problème très grave", déclare Tiffany Li, professeur de droit à l' Université de San Francisco .
L’avènement de l’imagerie par l’IA présente un risque particulier pour les femmes et les adolescents , dont beaucoup ne sont pas préparés à une telle visibilité. Une étude réalisée en 2019 par Sensity AI , une société qui surveille les deepfakes , a révélé que 96 % des images deepfakes sont de la pornographie et que 99 % de ces photos ciblent des femmes.
"Cela s'adresse désormais aux filles ", a déclaré Sophie Maddocks, chercheuse et défenseure des droits numériques à l' Université de Pennsylvanie . « Des jeunes filles et des femmes qui ne sont pas visibles du public. »
"Ecoute, maman, qu'est-ce qu'ils m'ont fait ?"
Le 17 septembre, Miriam Al Adib Mendiri revenait d'un voyage chez elle, dans le sud de l'Espagne, lorsqu'elle a retrouvé sa fille de 14 ans désemparée. Sa fille a partagé une photo d'elle nue .
« Écoute, maman. Qu'est-ce qu'ils m'ont fait ? Al Adib Mendiri se souvient de ce que lui a dit sa fille.

Elle n'avait jamais posé nue . Mais, selon la police, un groupe de garçons locaux avait pris des photos habillées à partir des profils de réseaux sociaux de plusieurs filles de leur ville et avait utilisé une application « nudifier » d'IA pour créer les photos nues .
L' application est l'un des nombreux outils d'IA qui utilisent des images réelles pour créer des photos de nus , qui ont inondé le Web ces derniers mois . En analysant des millions d' images , les logiciels d'IA peuvent mieux prédire à quoi ressemblera un corps nu et superposer de manière fluide un visage sur une vidéo pornographique , explique Gang Wang, un expert en IA à l'Université de l'Illinois à Urbana-Champagne.
Bien que de nombreux générateurs d'images IA empêchent les utilisateurs de créer du matériel pornographique , les logiciels open source, tels que Stable Diffusion, rendent leur code public, permettant aux développeurs amateurs d'adapter la technologie, souvent à des fins néfastes. (Stability AI , fabricant de Stable Diffusion, n'a pas répondu à la demande de commentaires.)

Une fois que ces applications sont publiques, elles utilisent des programmes de parrainage qui encouragent les utilisateurs à partager ces photos générées par l'IA sur les réseaux sociaux en échange d'argent, a expliqué Oh.
Lorsque Oh a examiné les 10 principaux sites Web hébergeant de fausses images pornographiques , il a constaté que plus de 415 000 avaient été téléchargées cette année, avec près de 90 millions de vues.
Les vidéos pornographiques générées par l’intelligence artificielle ont également proliféré sur Internet. Après avoir exploré les 40 sites Web les plus populaires pour les fausses vidéos , Oh a découvert que plus de 143 000 vidéos avaient été ajoutées en 2023 , un chiffre qui dépasse toutes les nouvelles vidéos de 2016 à 2022. Les fausses vidéos ont reçu plus de 4,2 milliards de vues, selon Oh.
Le Federal Bureau of Investigation (FBI) a mis en garde en juin contre une augmentation de l'extorsion sexuelle par des escrocs exigeant un paiement ou des photos en échange de la non-distribution d'images à caractère sexuel . Même si l’on ne sait pas exactement quel pourcentage de ces images sont générées par l’IA , cette pratique se répand. En septembre, plus de 26 800 personnes ont été victimes de campagnes de « sextorsion », soit une augmentation de 149 % depuis 2019, a indiqué le FBI au Post .

"Vous n'êtes pas en sécurité en tant que femme"
En mai, une affiche sur un forum pornographique populaire a lancé un fil de discussion intitulé "Je peux simuler votre béguin". L'idée était simple : « Envoyez-moi qui vous voulez voir nu et je pourrai faire semblant » en utilisant l'IA , a écrit le modérateur.
En quelques heures, des photos de femmes ont inondé le forum. "Elle n'est ni une célébrité ni une influenceuse", a demandé un utilisateur. "Mon collègue et mon voisin ?", a ajouté un autre.
Quelques minutes après une demande, une version nue de l' image est apparue sur le fil. "Merci beaucoup mon frère, c'est parfait", a écrit un utilisateur.
Les célébrités sont une cible populaire pour les faux créateurs de porno qui cherchent à capitaliser sur l'intérêt des recherches pour les photos nues d'acteurs célèbres . Mais les sites Web mettant en vedette des personnes célèbres peuvent entraîner une augmentation d'autres types de nudité . Ces sites présentent souvent du contenu « amateur » provenant de personnes inconnues et hébergent des publicités commercialisant des outils de création pornographique IA .

Google a des politiques pour empêcher les images sexuelles non consensuelles d'apparaître dans les résultats de recherche, mais ses protections contre les images deepfakes ne sont pas aussi fortes. L'imitation profonde du porno et les outils permettant de le créer apparaissent en bonne place dans les moteurs de recherche de l'entreprise, même si le contenu généré par l'IA n'est pas spécifiquement recherché . Oh a documenté plus d'une douzaine d'exemples dans des captures d'écran , qui ont été confirmées de manière indépendante par The Post .
Le porte-parole de Google, Ned Adriance, a déclaré dans un communiqué que la société "travaille activement à accroître la protection des recherches " et qu'elle permet aux utilisateurs de demander la suppression involontaire de fausses pornographies .
Google est en train de « créer des garanties plus larges » qui n’obligent pas les victimes à demander individuellement la suppression du contenu, a-t-il ajouté.
Li, de l'Université de San Francisco , a déclaré qu'il pouvait être difficile de pénaliser les créateurs de ce contenu . L'article 230 de la loi sur la décence en matière de communication exempte les sociétés de médias sociaux de toute responsabilité pour le contenu publié sur leurs sites , laissant ainsi peu de charge aux sites Web de contrôler les images .

Les victimes peuvent demander aux entreprises de supprimer les photos et vidéos dans lesquelles elles apparaissent. Mais comme l’ IA s’appuie sur une surabondance d’ images dans un ensemble de données pour créer une fausse photo, il est plus difficile pour une victime de prétendre que le contenu dérive uniquement de son image, a expliqué Li.
"Peut-être que je peux encore dire : 'C'est une violation du droit d'auteur , il est clair qu'ils ont pris ma photo originale protégée par le droit d'auteur et qu'ils y ont ensuite simplement ajouté un peu'", a déclaré Li. "Mais dans le cas des deepfakes ... ce n'est pas si clair... quelles étaient les photos originales ."
En l'absence de lois fédérales , au moins neuf États – dont la Californie, le Texas et la Virginie – ont adopté des lois anti- deepfake . Mais la portée de ces lois varie : dans certains États, les victimes peuvent porter plainte au pénal , tandis que d'autres n'autorisent que les poursuites civiles , même s'il peut être difficile de déterminer qui poursuivre.

Les efforts visant à réglementer les images et vidéos générées par l'IA visent souvent à empêcher leur distribution massive , répondant ainsi aux préoccupations concernant l'ingérence électorale, a déclaré Sam Gregory, directeur exécutif de l'organisation de défense des droits technologiques Witness.
Mais ces règles ne font pas grand-chose pour le porno deepfake , où les images partagées en petits groupes peuvent faire des ravages dans la vie d'une personne, a ajouté Gregory.
L'influenceuse YouTube Belle ne sait toujours pas combien de photos deepfakes d'elle sont publiques et a déclaré que des règles plus strictes sont nécessaires pour répondre à son expérience.
« Vous n'êtes pas en sécurité en tant que femme », a-t-elle déclaré.
(c) 2023, Le Washington Post