En 2023, Google a supprimé plus de 1,8 milliard de publicités pour violation de ses politiques en matière de contenu à caractère sexuel , selon le rapport annuel de l'entreprise sur la sécurité des publicités. Un fait qui met en évidence l’ampleur du défi auquel cette entreprise est confrontée dans sa lutte contre les contenus inappropriés et l’importance de mettre à jour ses politiques.
Comment Google appliquera sa nouvelle politique
La société utilisera une combinaison d'examens humains et de systèmes automatisés pour appliquer cette politique, soulignant ainsi son engagement en faveur de la sécurité en ligne et de la protection des utilisateurs contre les contenus préjudiciables.
Il est important de préciser qu'il s'agit d'une mise à jour de la politique de Google Ads et qu'elle exclura spécifiquement la promotion de contenu synthétique qui a été modifié ou créé pour inclure de la nudité ou être de nature sexuelle.
Selon le porte-parole de Google, Michael Aciman, l’objectif est « d’ interdire explicitement les publicités pour des services proposant de créer de la pornographie deepfake ou du contenu de nudité synthétique ».
De même, la violation de ces nouvelles règles a été considérée comme une infraction grave. « Nous prenons très au sérieux les violations de cette politique et les considérons comme atroces », ont-ils prévenu de l'entreprise où il existe une tolérance zéro envers les contrevenants.
Pourquoi certaines applications ont réussi à échapper aux politiques précédentes
La mise en œuvre de cette règle met également en évidence comment certaines applications facilitant la création de deepfake pornographie avaient auparavant réussi à échapper aux restrictions de Google . Par exemple, les applications d’échange de visage qui, bien qu’elles n’aient pas été présentées comme sexuellement explicites sur le Google Play Store, ont été promues sur des sites Web pornographiques.
Cette lacune dans la politique publicitaire avait permis à ce type d'applications de proliférer, ce qui avait même généré un vide juridique et moral que Google cherche désormais à combler.
Le problème de la pornographie deepfake non consensuelle ne se limite pas à l’exploitation numérique des adultes ; Cela a également touché des mineurs. Deux lycéens de Floride ont été arrêtés en décembre dernier pour avoir prétendument créé des photos nues de camarades de classe générées par l'IA.
De plus, un homme de Pittsburgh de 57 ans a récemment été condamné à plus de 14 ans de prison pour possession de matériel d'abus sexuel sur enfants généré par l'intelligence artificielle.
Les États-Unis agissent également
Compte tenu de la gravité de cette affaire, le Congrès américain envisage de prendre des mesures législatives. Le mois dernier, la Chambre et le Sénat ont présenté la loi DEFIANCE, qui établirait un processus par lequel les victimes de « deepfakes numériques » pourraient poursuivre ceux qui fabriquent ou distribuent des deepfakes non consensuels.
Cet effort législatif, ainsi que l'initiative de Google, démontrent une reconnaissance et une action croissantes contre les dangers que pose la technologie deepfake lorsqu'elle est utilisée de manière inappropriée.
En outre, cela reflète une préoccupation croissante quant à l’impact éthique et social des technologies d’intelligence artificielle, notamment en ce qui concerne la création et la diffusion de contenus faux ou trompeurs pouvant porter atteinte à la dignité des personnes.