Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Sony, Canon et Nikon révolutionnent : adieu aux fausses images avec l'IA

Publié le 04.01.2024
Grâce aux métadonnées, les entreprises souhaitent garantir la véracité de leurs photos. (Reuters)

Sony, Canon et Nikon ont annoncé un accord pour lutter contre les fausses images générées par l'intelligence artificielle. Les entreprises développeront une technologie d'authentification qui leur permettra d'authentifier la véracité du contenu.

Ce sera une sorte de signature numérique , qui sera intégrée aux images capturées par vos caméras. La signature comprendra des informations vitales telles que la date, le lieu et d'autres données pertinentes au moment de la prise. Avec ces outils, il sera essentiel de vérifier l’authenticité des images lors de leur achat avec un deepfake.

À quoi ressemblera la mise en œuvre de cette technologie ?

Nikon sera le premier à implémenter cette technologie dans ses appareils photo, suivi par Sony et Canon. Les signatures numériques constitueront un bouclier inviolable et seront idéales pour le journalisme professionnel et le travail d’investigation.

Ces trois sociétés occupent près de 90 % du marché mondial des appareils photo numériques, une grande partie de l'industrie de la photographie sera donc couverte, à l'heure où les créations deviennent de plus en plus précises grâce à l'intelligence artificielle.

L'une des clés de cette collaboration réside dans la création d'une norme mondiale . Cette uniformité se veut essentielle pour que les deepfakes générés aient moins de chance de se faire passer pour du contenu réel.

Grâce aux métadonnées, les entreprises souhaitent garantir la véracité de leurs photos. (Sony)

La signature numérique sera accompagnée d'un site Web gratuit appelé Verify, où il sera possible de vérifier les images pour trouver cette norme et détecter si le contenu possède une signature qui fournit des données sur sa date, son emplacement et d'autres informations d'identification.

Sony, dans son engagement dans cette lutte, prévoit d'introduire cette technologie dans trois de ses appareils photo professionnels sans miroir via une mise à jour du firmware pour le deuxième trimestre 2024. L'entreprise envisage même la possibilité d' étendre cette technologie pour l'inclure dans les vidéos.

De son côté, Canon prévoit de lancer un appareil photo doté de fonctionnalités similaires pour la même période. L'entreprise travaille également sur une technologie permettant d'ajouter des signatures numériques aux vidéos et développe une application pour gérer les images permettant de distinguer les photos capturées par des humains et celles générées par l'IA.

Cette alliance s'ajoute aux développements réalisés par d'autres entreprises technologiques telles que Google, Intel et Hitachi pour lutter contre la propagation de faux contenus.

Par exemple, Google a créé des outils pour générer un filigrane numérique invisible pour les images générées par l'IA, tandis qu'Intel a travaillé pour authentifier les images en analysant les changements de couleur de peau. Hitachi, pour sa part, se concentre sur l'authentification d'identité en ligne.

Grâce aux métadonnées, les entreprises souhaitent garantir la véracité de leurs photos. (Informations sur l'image illustrative)

De plus en plus de deepfakes sont partagés

Selon une étude de Geneviève Oh, plus de 143 000 nouvelles vidéos manipulées par l'IA, ou deepfakes, ont été partagées en ligne en 2023, un nombre qui dépasse le total des années précédentes combinées.

Les chercheurs affirment que la technologie a facilité la production et la diffusion de ce type de contenu, y compris le matériel d’abus sexuel d’enfants généré par l’IA.

Les deepfakes sont des images, des vidéos ou des fichiers audio manipulés avec l'intelligence artificielle et des techniques d'apprentissage profond , qui donnent l'impression qu'une personne dit ou fait quelque chose qu'elle n'a jamais dit ou fait. Ils sont générés en superposant des visages ou en modifiant les expressions faciales et vocales dans des enregistrements existants, avec un niveau de réalisme croissant, rendant difficile la distinction entre ce qui est faux et ce qui est authentique.

L'un des cas récents s'est produit en novembre dernier, lorsque des parents et des élèves de la Westfield High School, dans le New Jersey, ont signalé que certains élèves avaient utilisé l'intelligence artificielle pour générer de fausses images pornographiques de leurs camarades de classe. Le problème a été signalé aux parents par courrier électronique du directeur de l'école et s'est tellement aggravé qu'une enquête a été ordonnée par les autorités scolaires et la police de Westfield.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.