
Un ingénieur logiciel du Wisconsin a été arrêté le lundi 20 mai pour avoir prétendument créé et distribué des milliers d'images générées par l'intelligence artificielle de matériel d'abus sexuels sur des enfants (CSAM). Steven Anderegg , 42 ans, est accusé d'avoir envoyé des images de mineurs nus générées par l'IA à un garçon de 15 ans via des messages directs sur Instagram , selon des documents judiciaires obtenus par The Verge.
Anderegg, décrit par le FBI comme « extrêmement adepte de la technologie », avec une formation en informatique et « des décennies d'expérience en génie logiciel », a été identifié après que le Centre national pour les enfants disparus et exploités (NCMEC) ait rapporté les messages selon lesquels il aurait envoyé en octobre 2023.
Ces signalements ont incité les autorités à surveiller son activité sur le réseau social , à obtenir des informations sur Instagram et, éventuellement, à obtenir un mandat de perquisition.
Selon le journal The Guardian , l'accusé a produit environ 13 000 images hyperréalistes d'enfants nus ou à moitié nus, dont beaucoup illustraient des abus sexuels explicites perpétrés par des hommes adultes. Sur l'ordinateur portable de l'accusé, les autorités ont trouvé des preuves de l'utilisation de messages extrêmement spécifiques pour créer du matériel abusif.

L'enquête a en outre révélé qu'Anderegg avait publié une histoire sur Instagram en 2023 avec une image réaliste de mineurs portant des vêtements en cuir sur le thème du BDSM (Soumission et sadisme et masochisme), et avait encouragé les autres à « revoir » sur Telegram . Dans des messages privés, il a évoqué son « désir d’avoir des relations sexuelles avec des garçons préadolescents » et a affirmé avoir des « tonnes » d’autres images CSAM générées par l’IA sur son Telegram.
« L’annonce d’aujourd’hui envoie un message clair : utiliser l’IA pour produire des représentations sexuellement explicites d’enfants est illégal , et le ministère de la Justice n’hésitera pas à demander des comptes à ceux qui possèdent, produisent ou distribuent du matériel pédopornographique généré par l’IA », a-t-il déclaré. dans une déclaration du sous-procureur général principal Nicole M. Argentieri , chef de la division pénale du ministère de la Justice .
Anderegg reste en détention fédérale en attendant une audience de détention prévue le 22 mai. Selon les documents d'accusation, il risque jusqu'à 70 ans de prison s'il est reconnu coupable, bien que les procureurs notent que « la peine recommandée pourrait aller jusqu'à la prison à vie ».

Une pratique en plein essor
Une étude du NCMEC a révélé une augmentation de 12 % des signalements d’abus sexuels sur enfants en ligne en 2023 par rapport à l’année précédente, attribuée en partie à la croissance du matériel généré par l’IA. Le NCMEC a exprimé son inquiétude en déclarant : « Nous sommes profondément préoccupés par cette tendance croissante, car des acteurs malveillants peuvent utiliser l’IA pour créer des images ou des vidéos sexuellement explicites basées sur n’importe quelle photographie d’un véritable enfant », a cité The Verge .
Le cas de Steven Anderegg est l'un des premiers dans lesquels le FBI accuse une personne d'avoir généré du matériel pédopornographique à l'aide de l'IA. Lisa Monaco , procureure générale adjointe, a indiqué : « Le ministère de la Justice poursuivra de manière agressive ceux qui produisent et distribuent du matériel pédopornographique, quelle que soit la manière dont ce matériel a été créé », a publié The Guardian .
Le modèle Stable Diffusion , développé par la société britannique Stability AI , a déjà été utilisé pour générer des images abusives. Un rapport de 2022 du Stanford Internet Observatory a trouvé du matériel pédopornographique dans ses données de formation.
Stability AI a déclaré que depuis qu'elle a repris le développement du modèle, elle a mis en œuvre davantage de garanties. « Nous nous engageons à empêcher l'utilisation abusive de l'IA et à interdire l'utilisation de nos modèles d'images à des fins d'activités illégales », ont-ils déclaré dans un communiqué.