Pape en doudoune, Macron en éboueur… voici comment repérer des images générées par une IA

undefined 29 mars 2023 undefined 17h56

Nicolas Cogoni

MidJourney, Dall E, Stable diffusion… depuis plusieurs semaines, les IA de création graphique capables de générer des visuels artistiques grâce à une courte description textuelle ont largement prouvé de quoi elles sont capables. Diffusées en masse sur les réseaux sociaux, ces images impressionnantes interpellent les internautes qui se demandent s’il s’agit d'une vraie photo ou non, ce qui peut facilement accorder du crédit aux fausses informations. 

Entre les images hyper-réalistes de Macron en éboueur, du Pape François en doudoune blanche ou de Trump en prison, il est de plus en plus difficile de déceler la supercherie. Voici notre petit tuto anti-fake pour ne plus se faire avoir. 

Être attentif aux détails

Ouvrez l'œil ! Malgré leurs énormes progrès, les IA ont encore du mal à représenter les petits détails, il y aura toujours un petit quelque chose qui cloche. Les mains des personnes sont très souvent déformées ou imparfaites. C’est par exemple le cas sur cette image de Macron et ses 6 doigts, soutenu par deux CRS. 

Se détacher du sujet principal

C’est généralement au niveau de l'arrière-plan de l’image que l'IA a le plus de chances de se trahir. Les algorithmes ne sont pas assez performants pour reproduire des mots ou même des reflets. Cherchez donc un miroir, une vitre, des panneaux, pancartes ou logos qui pourraient exposer la supercherie. 

En se détachant du sujet principal, on peut remarquer quelques difformités sur les autres protagonistes : des visages flous en arrière-plan ou mêmes des membres qui apparaissent ou disparaissent à des endroits incohérents de l’image. Le grain est aussi très différent de celui d'une vraie photo.

Utiliser des vérificateurs d’image

Plusieurs outils et logiciels existent pour nous permettre de vérifier s’il s’agit d’une vraie photo ou non. Avec Tineye, faites une recherche inversée pour remonter à la source de l’image, savoir si elle a déjà été utilisée et publiée par le passé sur Internet ou dans un autre contexte.

Cependant, leurs résultats sont encore très mitigés. « Quand une IA génère intégralement une image, elle ne prélève généralement pas des parties d’une seule et même photo. Des milliers voire des millions de photos sont utilisées pour prendre en compte des milliards de paramètres », explique David Fischinger, ingénieur à l’institut technologique autrichien et spécialiste de l’IA.

Cette déconstruction, suivie de la reconstruction « pixel par pixel » d'une nouvelle image créée de toutes pièces, trouble les programmes de détection de fausses images.