
Comme le révèle un rapport d' Axios , des sociétés de premier plan telles que OpenAI , créateur de la populaire plateforme ChatGPT , prévoient de lancer ces ressources de création de contenu. L'arrivée de ces outils sur le marché pourrait être imminente, suscitant l'inquiétude des experts, qui mettent en garde contre l'impact possible sur des domaines tels que les élections, le commerce et la sécurité nationale.
Certains développeurs qui ont participé à des tests privés ont admis qu'ils ne pouvaient pas eux-mêmes distinguer les fausses images des vraies, selon Fox News Digital .
Ziven Havens , directeur politique du Bull Moose Project , s'est dit préoccupé par la diffusion de vidéos deepfake de célébrités, de politiciens et d'autres influenceurs. L’expert a mis en garde contre le potentiel de cette technologie entre les mains d’acteurs malveillants pour diffuser de « fausses publicités de campagne » ou créer de « fausses déclarations de la part des dirigeants mondiaux ». Il a en outre affirmé qu’il ne s’agissait là que de la « pointe de l’iceberg ».
La menace à laquelle Havens a fait allusion a conduit les dirigeants à envisager des solutions pour clarifier ce qui est réel et ce qui ne l'est pas, notamment en mettant en œuvre des filigranes obligatoires sur le contenu généré par l'intelligence artificielle . Phil Siegel , fondateur du Center for Advanced Preparedness and Threat Response Simulation , a déclaré à Fox News que ceux qui cherchent à réglementer l'IA devront prendre en compte les implications potentielles du premier amendement.
Siegel semble néanmoins favorable à la diffusion illustrative de contenus générés par l’IA et rappelle que des contenus humoristiques et satiriques peuvent probablement être utilisés. Cependant, il a reconnu que la montée en puissance de moyens faciles et peu coûteux de générer du contenu grâce à la technologie va probablement accroître à la fois la désinformation, la satire et l’illustration.

D'un autre côté, Samuel Mangold-Lenett , rédacteur en chef de The Federalist , note qu'il existera des moyens de « atténuer les risques » associés à la falsification du matériel visuel généré par l'IA . Il suggère que le plus grand danger réside dans l’intelligence artificielle qui fait « perdre le contact avec la réalité » à l’humanité.
Selon Mangold-Lenett , tout comme les moteurs de recherche ont affaibli les compétences de recherche des individus, les technologies sophistiquées d'intelligence artificielle ont le potentiel d'affaiblir les capacités de pensée critique.
Enfin, Havens a proposé que le Congrès des États-Unis mette en œuvre une obligation d’étiqueter le contenu en ligne généré par l’IA . Pour sa part, le président Joe Biden a récemment signé un décret visant à résoudre certains des problèmes émergents liés à l’IA, une décision que beaucoup considèrent comme une première étape positive.
Que sont les deepfakes ?
Les faux profond Ce sont des techniques d’intelligence artificielle qui permettent la création ou la manipulation de contenus audiovisuels. Ce terme fait référence à la combinaison de « deep learning » et de « faux ». Il est généralement utilisé de manière trompeuse, créant l’illusion qu’une personne parle ou agit d’une manière qui n’est pas réelle.
Ceci est réalisé en remplaçant le visage d'une personne dans une vidéo par celui d'une autre, générant ainsi des images ou des vidéos hyperréalistes qui peuvent être difficiles à distinguer de la réalité. La technologie Deepfake suscite des inquiétudes quant à son utilisation malveillante potentielle, telle que la génération de fausses nouvelles ou l'invasion de la vie privée. Mais elle a aussi des applications légitimes dans des domaines comme le cinéma, l’animation ou la publicité.