Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Les deepfakes de Taylor Swift révèlent le plus gros défaut de l'intelligence artificielle

Publié le 03.02.2024
Les deepfakes de Taylor Swift mettent en évidence le problème du contenu non consensuel (Illustrative Image Infobae/AP)

Certains espèrent que Swift utilisera son influence culturelle considérable pour créer une vague de soutien en faveur d'une réglementation qui puisse réellement contribuer à endiguer la vague de ce type de deepfakes , qui sont souvent utilisés pour harceler des personnes qui ne sont pas célèbres.

Et, en effet, plusieurs représentants du Congrès américain ont présenté des projets de loi visant à lutter contre la pornographie deepfake en réponse à ceux générés contre Swift, et la porte-parole de la Maison Blanche , Karine Jean-Pierre, a déclaré que cette législation concernait l'utilisation abusive des réseaux sociaux.

La question est de savoir exactement quelle forme ces lois devraient prendre. Au Royaume-Uni , la nouvelle loi sur la sécurité en ligne tient pour responsables les personnes qui créent les images et les publient en ligne, criminalisant le partage de pornographie non consensuelle.

Taylor Swift est l'une des artistes les plus titrées au monde (REUTERS/Wolfgang Rattay)

Mais on ne sait pas exactement dans quelle mesure la loi sera facile à appliquer ni quelle attention la police et les procureurs consacreront à la poursuite de ces affaires. Les créateurs de ces images prennent souvent des mesures pour dissimuler leur identité, ce qui rend les enquêtes techniquement difficiles. La loi ne limite pas non plus les sociétés de médias sociaux qui permettent à ces types de contrefaçons de devenir virales.

Cependant, cela les oblige à démontrer qu’ils disposent de systèmes en place pour tenter d’empêcher la propagation de la pornographie non consensuelle et pour éliminer rapidement les contenus qui passent à travers leurs filtres.

C’est le type de régulation que même certains PDG de grandes entreprises technologiques ont défendu en réponse au problème des deepfakes et de la désinformation en tout genre. Arrêtez-le au point de distribution, pas au moment de la création.

C'est ce qu'a déclaré Satya Nadella , PDG de Microsoft , lors de récentes remarques à Chatham House à Londres et à Davos. Pour paraphraser l'argument de Nadella : s'en prendre aux créateurs de modèles d' intelligence artificielle (IA) parce qu'ils sont capables de créer du porno deepfake , c'est comme poursuivre Smith Corona en justice parce qu'un braqueur de banque a utilisé l'une de ses machines à écrire pour rédiger une note de vol.

Là encore, il dirait ça. Microsoft n'a pas de grand réseau social à surveiller. Mais elle fabrique et vend des logiciels d’intelligence artificielle . Et il s'avère qu'il existe des preuves solides que c'est le logiciel Designer de la société, qui inclut la possibilité d'utiliser des indices de langage naturel pour créer des images, qui a été utilisé pour créer les deepfakes Swift.

Après que la publication technique 404 Media ait montré à quel point il était facile de contourner les barrières de sécurité de Microsoft pour créer des deepfakes Swift, la société a renforcé certaines de ces restrictions.

Malgré les progrès de l'intelligence artificielle, la distinction entre contenu innocent et pornographique reste un défi majeur pour les algorithmes et les législateurs (Image d'illustration Infobae)

Ce qu’il faut, c’est une approche sur plusieurs fronts qui aborde les trois niveaux du problème : des lois qui criminalisent la création et la distribution de pornographie non consensuelle et de deepfakes ; des lois qui obligent les créateurs de modèles d’intelligence artificielle à disposer de barrières de protection beaucoup plus solides que celles actuelles ; et, plus important encore, des lois qui obligent les sociétés de médias sociaux à mieux filtrer ces types d'images et à les empêcher de devenir virales.

La facilité avec laquelle les barrières de sécurité des concepteurs peuvent être surmontées et le problème qu'ont les géants des médias sociaux à filtrer les contenus pornographiques découlent du même problème fondamental : malgré leur sophistication apparente et leur capacité à approuver l'examen du barreau ou les examens médicaux aux États-Unis. , les systèmes d’IA n’ont toujours pas un niveau de compréhension semblable à celui des humains.

On sait que la pornographie est difficile à définir, même pour les humains. Comme l'a dit le juge de la Cour suprême Potter Stewart , il ne pouvait pas le définir, « mais je le sais quand je le vois ».

En théorie, c’est exactement le genre de problème dans lequel l’IA moderne , basée sur les réseaux de neurones, devrait exceller. L'une des raisons pour lesquelles l'apprentissage profond basé sur les réseaux neuronaux est devenu populaire en premier lieu est que ce type de logiciel pouvait classer les images, par exemple en distinguant les photos de chats de celles de chiens, non pas sur la base de règles et de définitions élaborées, mais plutôt en développant une méthode presque automatique. sens intuitif, impossible à expliquer, du moment où une image représentait un chat ou un chien.

Mais il s’avère que la pornographie est un concept beaucoup plus complexe à comprendre pour l’IA que l’identification d’un chat ou d’un chien. Certains nus sont innocents. D'autres non. Et nos classificateurs d’apprentissage profond ont eu du mal à comprendre la composition sémantique (les parties d’une image qui lui donnent une signification concrète) et suffisamment de contexte pour réussir ces appels.

C’est pourquoi de nombreuses plateformes de réseaux sociaux finissent par bloquer la diffusion de clichés de bébés innocents ou de photos de sculptures classiques montrant des personnages nus : les logiciels d’intelligence artificielle présents dans leurs filtres ne peuvent pas faire la distinction entre ces images innocentes et le porno.

La prolifération de fausses images du chanteur sur les réseaux suscite un débat mondial sur la nécessité de légiférer sur les contenus deepfake et de protéger la vie privée. (Informations sur l'image illustrative)

Des lois comme la loi britannique sur la sécurité en ligne finissent par inciter les entreprises à privilégier le blocage des images innocentes, car cela leur évite des amendes et la colère des législateurs. Mais cela rend également ces plateformes moins utiles.

Il en va de même pour notre IA de génération d’images, qui repose également sur le deep learning. Vous ne pouvez pas simplement créer des garde-fous pour ces systèmes en leur disant en coulisses : « Ne créez pas de porno ».

Au lieu de cela, vous devez interdire les invites utilisateur telles que « Taylor Swift nue ». Mais il s'avère que le même système créera toujours essentiellement la même image lorsqu'on lui demandera "Taylor 'chanteur' Swift" et ensuite, comme le rapporte 404 Media, "au lieu de décrire explicitement les actes sexuels, il décrit des objets, des couleurs et des compositions qui ressemblent clairement". comme des actes sexuels." "sexuel et produit des images sexuelles sans utiliser de termes sexuels."

Encore une fois, c'est parce que le générateur d'images ne comprend pas ce qu'est le porno. Et à mesure que les entreprises tentent de renforcer ces garde-fous, elles rendent leurs propres produits moins utiles pour les cas d’utilisation légitimes.

Il s’agit de l’un de ces problèmes d’IA qui peuvent nécessiter une toute nouvelle architecture d’IA pour être résolu. Yann LeCun, scientifique en chef de l'IA chez Meta, préconise une nouvelle méthode d'apprentissage en profondeur pour les classificateurs d'images appelée Joint Embedding Predictive Architecture (ou JEPA) qui tente de créer des modèles d'IA avec une compréhension conceptuelle et compositionnelle beaucoup plus forte d'une scène.

Il est possible qu'un classificateur d'images basé sur JEPA soit un meilleur détecteur de porno deepfake Taylor Swift que nos modèles actuels.

Il faudra attendre que Yann nous dise si cela fonctionne pour les deepfakes de Taylor Swift . En attendant, espérons que le deepfake porn continue d’être rejeté sur les réseaux sociaux.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.