
Avec les outils d'intelligence artificielle qui ont été créés tels que DALL-E 2, Stable Diffusion , entre autres, de mauvaises utilisations sont également apparues, telles que la génération d'éditions photographiques non consensuelles dans le but de créer du contenu érotique ou sexuel à diffuser. .sur internet .
Face à ce problème, un groupe de chercheurs du Massachusetts Institute of Technology (MIT) a créé un outil qui protège les images des altérations. PhotoGuard, comme on appelle ce système, crée une version des photographies qui ont une fonctionnalité cachée qui génère une mauvaise lecture de l'intelligence artificielle et par conséquent l'édition souhaitée est partiellement ou complètement ruinée.
Au lieu de livrer la version finale avec les fonctionnalités souhaitées par l'attaquant cherchant à créer une modification non autorisée, le résultat final peut être complètement différent de la demande faite par "l'adversaire" ou aboutir à une image grise ne présentant que les caractéristiques que vous vouliez à inclure dans le résultat final de l' édition .
Selon le MIT Computer Science and Artificial Intelligence Laboratory , le but du modèle n'est pas d'empêcher complètement l'édition d'images au moyen de l'intelligence artificielle (ce serait impossible car il existe d'autres méthodes), mais plutôt d'augmenter le le coût des modifications générées par l'IA en plus de faire des mods, dont l'attrait est le réalisme, perd cette fonctionnalité.

"De cette façon, les gens peuvent continuer à partager leurs images personnelles avec une couche supplémentaire de sécurité contre la falsification", a déclaré le document de recherche PhotoGuard .
Tout comme une intelligence artificielle comprend une image à travers ses pixels pour la modifier ultérieurement, PhotoGuard fait en sorte que cela ne soit pas possible. L'objectif du programme de protection est de modifier certains pixels de manière à ce qu'ils ne puissent pas être correctement interprétés par une IA , ainsi chaque fois qu'une tentative est faite pour changer l'apparence de l'image, elle affiche des versions défectueuses. Fondamentalement, un filtre est ajouté pour empêcher l'intelligence artificielle de reconnaître ce qu'elle « voit ».
Même si dans un premier temps ce type de protection s'est avéré utile et agit efficacement contre les retouches d'images indésirables, les chercheurs en charge du projet PhotoGuard estiment que leur système a encore beaucoup à améliorer puisqu'il propose également des versions modifiées des images (en le style recherché par les attaquants), mais avec une qualité ou un "bruit" inférieur dans l'image.
"L'une des limites du processus d'immunisation (contre l'édition par IA) est que l'image peut être soumise à d'autres transformations et techniques de nettoyage du bruit", expliquent les créateurs de PhotoGuard . "Des acteurs malveillants pourraient tenter de supprimer les effets en recadrant l'image, en ajoutant des filtres, en la faisant pivoter ou par d'autres moyens", indique le document de recherche .

D'un autre côté, les spécialistes acceptent que bien que leur méthode puisse réussir dans ce premier exemple de leur travail, la vérité est qu'elle pourrait ne pas l'être dans les versions ultérieures des modèles d'intelligence artificielle qui pourraient être introduites sur le marché à l'avenir. .
"Nous ne garantissons pas que cette méthode sera efficace à l'avenir", indique-t-il. Cependant, une solution possible est également proposée : que les entreprises qui créent les intelligences artificielles et les plateformes de publication et l'équipe de PhotoGuard partagent des informations permettant d'offrir le service de vaccination à n'importe quelle image et génèrent une compatibilité entre les plateformes pour garantir l'efficacité de la proposition.
En fait, l'un des problèmes rencontrés par l'équipe est qu'ils n'ont aucun moyen de proposer commercialement la vaccination et que n'importe qui puisse l'appliquer à leurs images .