
Après une série de fausses photographies du pape François sur lesquelles on pouvait le voir vêtu d'un manteau moderne et d'autres sur lesquelles on voyait l'arrestation présumée de l'ancien président des États-Unis Donald Trump , toutes deux avec une apparence hyperréaliste, sont devenues virales, le débat sur les réseaux sociaux (où ils ont été diffusés) axés sur la façon de reconnaître quand une image est générée par l'intelligence artificielle .
Les logiciels Midjourney et DALL-E2 sont les plus populaires dans ce type de cas, en raison du niveau de réalisme qu'ils peuvent atteindre dans leurs productions.
Cependant, les images générées, aussi détaillées soient-elles, ne sont pas parfaites et peuvent être reconnues si les gens recherchent attentivement les erreurs qui existent dans ces photographies artificielles.
Le principal défi pour les personnes qui voient ces images sur Internet est qu'il est fort probable qu'elles continuent à les diffuser sans faire d'abord une observation détaillée. Ce sont quelques aspects qui doivent être pris en compte pour identifier rapidement ce contenu.
La première chose est de revoir le niveau de détail qui existe entre les mains des personnes présentes sur la photographie . Autant que des détails hyperréalistes sont ajoutés, les images présentent généralement des dommages dans cette zone du corps.

Les mains ou les doigts sont un indicateur clé que l'image est fausse. Parfois, vous pouvez voir les personnages avec un doigt de plus ou de moins qu'ils ne le devraient, s'ils tiennent quelque chose (comme dans le cas de la photo du pape François), la main se confond avec l'objet et les doigts peuvent même être plus longs que la normale .
A moins qu'ils ne soient complètement différenciés par la couleur qu'ils présentent, les anneaux servent aussi de repère pour identifier les fausses photos .
Dans les images artificielles, ils ont tendance à se confondre avec la main et il n'est pas vraiment défini quand l'accessoire commence et se termine. La même chose peut arriver avec les boucles d'oreilles et les piercings.
Dans certains cas, les intelligences artificielles sont formées avec de vraies photos pour reproduire le visage d'une certaine personne. Cependant, même lorsque le résultat est très proche de la réalité, ils peuvent présenter des défauts lors du rendu des ombres .
Dans ce type de cas, il convient d'observer attentivement si l'objet ou la personne est correctement éclairé ou si des ombres se produisent là où elles ne devraient pas l'être.

Si les images ont été produites par une intelligence artificielle qui n'a pas eu de formation spéciale pour imiter les visages des gens, cette partie de leur corps apparaîtra avec des déformations visibles , dans les yeux, les paupières, la bouche, les oreilles, ou ils peuvent même n'avoir aucun visage du tout et présentent à la place des formes qui imitent un certain type d'expression faciale, mais aucune n'est définie.
L'arrière-plan des images est pertinent pour identifier celles qui sont artificielles. Les panneaux d'affichage ou les enseignes comportent souvent des ensembles de lettres illisibles ou qui ne signifient vraiment rien. Ils ne correspondent pas non plus à une langue particulière, ce qui en fait l'un des moyens les plus rapides d'identifier une fausse image.
L'un des principaux problèmes qui peuvent être générés lors du partage de ce type d'images sur les réseaux sociaux est qu'elles peuvent être utilisées dans le cadre de campagnes de désinformation , il est donc recommandé aux gens d'observer les détails mentionnés ci-dessus et là s'ils peuvent supposer vrai ou non le contenu de ces photographies .