La nuit du 3 décembre 2025, un léger séisme touche Lancaster, une ville du nord-ouest de l'Angleterre. Au même moment, une image montrant un pont détruit circule sur les réseaux sociaux. La société ferroviaire britannique juge alors nécessaire de suspendre le trafic... avant de s'apercevoir que le pont est en réalité intact. L'image avait été générée par intelligence artificielle (IA). Résultat : 32 trains mis à l'arrêt et plusieurs milliers de livres de préjudice.
Cette anecdote pourrait prêter à sourire, mais elle montre qu'une simple image générée par IA peut avoir des conséquences bien réelles et potentiellement dramatiques si on ne parvient pas à l'identifier. Mais comment distinguer une fausse photo d'une vraie quand les doigts surnuméraires et les ombres étranges ne suffisent plus ?
Les recherches sur la capacité à détecter les images deepfakes
Une équipe de chercheurs du département de psychologie de l'Université Vanderbilt (Tennessee, États-Unis) a mis au point un outil appelé « AI Face Test » destiné à estimer dans quelle mesure la capacité individuelle à distinguer les visages humains réels des visages synthétiques variait d'une personne à l'autre. Leurs travaux ont été publiés dans le Journal of Experimental Psychology.
Les résultats de ces recherches ont montré que la capacité à distinguer un vrai visage d'un visage généré par IA ne s'acquiert pas. Ce serait une compétence innée, estiment les chercheurs. Le facteur prédictif le plus fort est la « reconnaissance d'objets », une compétence visuelle « innée » qui ne s'acquiert pas par une formation technique.
La reconnaissance d'objets, une compétence clé
Les personnes qui possèdent cette habileté seraient capables de percevoir les incohérences visuelles subtiles présentes sur une image synthétique et de remarquer les « bruits visuels » qui n'ont pas leur place dans une image réelle. « Nous voulions non seulement examiner si les gens étaient capables de faire la différence entre un visage réel et un visage généré par l'IA, mais aussi comparer leur capacité à accomplir cette tâche et voir si nous pouvions prédire leurs performances à l'aide de la reconnaissance d'objets », explique Isabel Gauthier, professeure de psychologie à l'université Vanderbilt qui a participé à cette étude.
Les personnes dotées de meilleures capacités de reconnaissance d'objets ont systématiquement surpassé les autres dans l'identification des visages générés par l’IA, et leurs performances sont restées stables lors des nouveaux tests.
Les implications de ces recherches
Cette même capacité a été associée dans d'autres recherches à la performance dans des tâches telles que l'identification de nodules pulmonaires sur des radiographies thoraciques, la classification des cellules sanguines comme cancéreuses, la reconnaissance de la notation musicale et même la détermination du sexe à partir d'images rétiniennes. « Je pense qu'il y a beaucoup de messages indiquant que nous ne pouvons pas faire la différence, alors qu'en réalité, il s'agit d'une distribution de personnes », indique Isabel Gauthier.
Les résultats de ces recherches soulèvent des questions sur la manière dont nous pouvons nous protéger contre les images deepfakes et les conséquences potentielles de leur utilisation. Ils mettent également en évidence l'importance de développer des outils et des méthodes pour détecter ces images et prévenir leur utilisation à des fins malveillantes.
En conclusion, les recherches sur la capacité à détecter les images deepfakes sont cruciales pour comprendre comment nous pouvons nous protéger contre ces images et prévenir leur utilisation à des fins malveillantes. Les résultats de ces recherches soulèvent des questions sur la manière dont nous pouvons développer des outils et des méthodes pour détecter ces images et sur les conséquences potentielles de leur utilisation. Il est essentiel de continuer à étudier ce sujet pour mieux comprendre les implications de l'utilisation des images deepfakes et pour développer des solutions pour les prévenir.
