L’augmentation du matériel pédopornographique généré par l’intelligence artificielle (IA) représente un nouveau défi dans la lutte contre cette épidémie numérique. Des chercheurs de l'université de Stanford , dans un rapport publié lundi 22 avril 2024, alertent sur la menace croissante que font peser ces technologies émergentes sur les autorités, déjà limitées par des technologies dépassées et des lois obsolètes.
L'efficacité du Centre national pour les enfants disparus et exploités (NCMEC) , chargé de coordonner la lutte contre ce type de contenu, est sérieusement compromise par le manque de ressources nécessaires pour lutter contre cette nouvelle forme de criminalité, comme le cite The New York. Fois.
Le rapport souligne qu'au cours de la dernière année, les progrès des technologies de l'IA ont considérablement simplifié la création d'images explicites de mineurs , augmentant de façon exponentielle le volume de matériel pédopornographique ( CSAM ) en circulation.
Shelby Grossman , l'une des auteurs de l'étude, prévient que « sans aucun doute, dans les années à venir, le CyberTipline sera inondé de contenu d'IA qui semble très réaliste, ce qui rendra encore plus difficile pour les forces de l'ordre d'identifier les vrais enfants qui Il faut les sauver. »
Le CyberTipline , créé en 1998, fonctionne comme le principal référentiel fédéral pour tous les rapports CSAM en ligne utilisés par les forces de l'ordre dans le cadre des enquêtes sur ces crimes. Cependant, elle se heurte à de sérieux défis, car la plupart des conseils reçus sont incomplets ou truffés d’inexactitudes.
Ses effectifs réduits ont eu du mal à suivre le volume de signalements, qui étaient moins de la moitié « pouvant donner lieu à une action » en 2022, en raison du manque d'informations suffisantes de la part des sociétés déclarantes ou parce que l'image d'une plainte s'était rapidement répandue en ligne et était signalé trop de fois.
Selon les données du rapport, en une seule journée plus tôt cette année, CyberTipline a reçu un million de rapports CSAM , submergeant temporairement la capacité de réponse des chercheurs. Cette hausse inhabituelle s’est avérée être en grande partie liée à la diffusion d’une image au sein d’un mème, partagée sur des plateformes pour exprimer son indignation, et non dans une intention malveillante.
Les défis technologiques ajoutent une autre couche de complexité aux efforts du NCMEC . Selon Alex Stamos , un autre auteur du rapport, NCMEC et ses sous-traitants sont limités par des réglementations qui les empêchent d'utiliser des fournisseurs de cloud computing, exigeant plutôt que les images soient stockées localement sur les ordinateurs.
Cette restriction rend difficile la création et l’utilisation du matériel spécialisé nécessaire à la création et à l’entraînement de modèles d’IA pour votre recherche. "Un million d'images identiques, c'est déjà assez difficile, un million d'images distinctes créées par l'IA les briseraient", a déclaré Stamos .
Face à l’indignation croissante du public face à la prolifération d’images d’abus sexuels sur des enfants en ligne, la surveillance s’est récemment intensifiée sur la responsabilité des grandes plateformes technologiques dans la protection des mineurs. Lors d'une audition avec les PDG de Meta , Snap , TikTok , Discord et X , les législateurs ont vivement critiqué ces entreprises pour ne pas en faire assez pour protéger les enfants en ligne.
Une législation visant à augmenter le financement du NCMEC et à lui donner accès à une technologie plus avancée a été préconisée à la fois par le centre et par les chercheurs de Stanford , qui ont accepté d'interroger les employés et les systèmes du centre pour démontrer les vulnérabilités du système nécessitant une mise à jour.
L'organisation a souligné qu'« au fil des années, la complexité du signalement et la gravité des crimes contre les enfants continuent d'évoluer », plaidant pour l'adoption de solutions technologiques émergentes tout au long du processus CyberTipline pour protéger davantage d'enfants et demander des comptes aux criminels.
Le rapport de Stanford souligne également la nécessité pour le Centre national pour les enfants disparus et exploités d'adapter sa ligne de conseils afin que les forces de l'ordre puissent déterminer quels rapports impliquent du contenu généré par l'IA . En outre, il exhorte les entreprises qui signalent du contenu potentiellement abusif sur leurs plateformes à remplir minutieusement les formulaires.