Scroll Top

Quand les images créent le doute

vkaFIUjA-website-visual.jpg

Média Animation et le Conseil Supérieur de l’Education aux Médias (CSEM) ont collaboré pour réaliser une série de webinaires autour de la question « L’IA redéfinit-elle les enjeux de désinformation ? ». Dans ce cadre, Florian Dauphin a réalisé une intervention sur ses recherches portant sur les enjeux de l’éducation critiques aux images à l’ère de l’IA. À la suite de son intervention, une table ronde entre professionnel·les de l’éducation aux médias a été réalisée grâce à une méthode de travail collaborative pour proposer des pistes pédagogiques.

Intervention : Florian Dauphin

Florian Dauphin est sociologue et maitre de conférences en science de l’information et de la communication à l’université de Picardie Jules Verne. Ses recherches s’inscrivent dans l’analyse de la construction de l’opinion publique à l’ère numérique. Elles portent notamment sur les dynamiques sociales et politiques de l’information en ligne, en analysant les mécanismes de la désinformation, depuis la circulation des rumeurs jusqu’aux fake news et aux logiques complotistes.

Mythe vs Réalité

Le débat public autour de l’intelligence artificielle générative est souvent structuré par des idées reçues. Parmi les plus répandues, on retrouve la crainte de deepfakes hyperréalistes qui signeraient la fin de la preuve visuelle. Dans les faits, si ces productions existent, leurs effets directs restent limités : elles sont encore relativement rares, ont une durée de vie courte et sont souvent rapidement démenties lorsqu’elles deviennent visibles.

Autre mythe fréquent : l’idée que l’IA tromperait massivement tout le monde à grande échelle. Or, ce qui fonctionne le mieux aujourd’hui en matière de désinformation visuelle ne relève pas toujours de technologies sophistiquées. Les cheapfakes (contenus grossièrement modifiés) et surtout la recontextualisation d’images réelles, sorties de leur contexte d’origine, sont bien plus efficaces et largement répandues.

Enfin, l’espoir d’un détecteur parfait capable de régler définitivement le problème du vrai et du faux persiste. Cette vision repose sur une approche technosolutionniste qui tend à réduire la question à un enjeu purement technique.

Une crise de confiance plus profonde

Comme le souligne le chercheur Florian Dauphin, se focaliser exclusivement sur l’IA générative risque de masquer des causes plus profondes. La méfiance actuelle envers les images ne provient pas uniquement des deepfakes, mais d’une érosion plus large de la confiance : envers les médias, les institutions, les figures d’autorité et les récits dominants. Certains cas médiatisés ont renforcé ce sentiment de bascule, alimentant l’idée que « tout peut être faux ».

Dans ce contexte, accuser l’IA revient parfois à déplacer la responsabilité, en évitant de questionner les dimensions sociales, économiques et politiques qui structurent la circulation de l’information. Les solutions techniques de détection peuvent être utiles, mais elles ne constituent qu’une réponse partielle à un problème beaucoup plus complexe.

Replacer l’enjeu : des pistes pédagogiques concrètes

Plutôt que de chercher une technologie miracle, l’enjeu se situerait davantage du côté de l’éducation critique aux médias. Apprendre à interroger le contexte de production et de diffusion des images, comprendre pourquoi certaines circulent, à qui elles profitent et comment elles sont interprétées devient central. L’IA générative n’est alors plus seulement perçue comme une menace, mais comme un révélateur d’un rapport fragilisé à l’information et au réel.

Grâce à ses travaux, Florian Dauphin propose des pistes éducatives basées sur des exemples concrets. Retrouvez la fiche outil de son intervention téléchargeable directement sur le site EDMO Belux.

En savoir plus ici.