Les images créées avec l’aide d’outils d’IA générative sont de plus en plus présentes sur les réseaux sociaux et brouillent chaque jour un peu plus la frontière entre le réel et le virtuel. Cette démocratisation et cette présence de plus en plus forte de ces contenus IA ne sont pas sans risques. Alors que certains contenus sont labellisés « IA », d’autres ne le sont pas. Cela n’est pas sans poser de graves questions en termes de propagation de la désinformation. Quelle plateforme identifie ces contenus et comment ? Par ailleurs, la législation européenne à ce sujet évoluera en 2026, mais avec quels effets ?
Chaque événement d’actualité majeur s’accompagne désormais presque systématiquement d’images générées par de l’intelligence artificielle. La récente capture du président du Venezuela, Nicolas Maduro, par les États-Unis n’a pas dérogé à cette tendance.
Rapidement après l’annonce de Donald Trump, des images ont émergé sur les réseaux sociaux et les publicateurs de ces images ont prétendu qu’elles étaient les « premières photos » de cet événement. Une photo de Maduro, entouré par des agents de la DEA à la sortie d’un avion, a généré des millions de vues en quelques heures. L’image forte, et visuellement assez réaliste, a pourtant été générée par des outils de création d’images à l’aide d’outils d’IA de Google.
À la mi-décembre, ce sont les vidéos d’un « coup d’État en France » puis la vidéo du témoignage d’un agriculteur au micro de la RTBF qui annonçait la mort de deux « copains », « abattus » dans le cadre de la manifestation des agriculteurs à Bruxelles contre le Mercosur, qui ont suscité de nombreuses réactions. Cette dernière, contrairement à l’image de Maduro ou à la vidéo évoquant un « coup d’État » en France était, elle, labellisée sur TikTok par son créateur comme un contenu « généré par IA ».
Mais alors que les outils d’IA générative sont devenus largement accessibles au grand public et que la qualité de ces productions a augmenté de façon significative, la question de l’identification de ces contenus synthétiques chaque jour davantage présents sur les plateformes se fait de plus en plus pressante.
À partir du 2 août 2026, l’Union européenne imposera aux fournisseurs de systèmes d’IA générative de faire en sorte que la « sortie » de leurs systèmes puisse être identifiée comme générée ou manipulée par IA. L’application de cette règle permettra-t-elle réellement de lutter contre la confusion engendrée chez les utilisateurs des réseaux sociaux ? Le travail des acteurs dans la lutte contre la désinformation en ligne sera-t-il facilité ? Décryptage et état des lieux avec les ressources et informations disponibles en janvier 2026.
Une labellisation, souvent sur base volontaire
Vous scrollez sur Instagram, TikTok ou Facebook et vous vous retrouvez face à une vidéo choc. Des enfants palestiniens accablés par le froid et la neige à Gaza, alors qu’il n’a pas encore neigé en Palestine cet hiver.
Dans certains cas, il vous est très facilement possible de savoir si ce contenu est authentique ou artificiel.
En effet, dans le cas de cette vidéo publiée le 31 décembre 2025 sur TikTok, vous pouvez rechercher la mention prévue par la plateforme : « Contient des médias généras par IA ». Dans le coin inférieur droit de la vidéo, une mention « AI-generated » est également présente.

© Capture d’écran TikTok/RTBF / Cette vidéo montrant des enfants dans le froid à Gaza contient des marqueurs qui indiquent qu’elle a été générée par IA. Les mentions sont identifiées par un cadre rouge.
Même plateforme, même contexte et autre vidéo publiée le même jour. Ici, la vidéo n’est pas labellisée comme étant générée par une IA et les images ne possèdent aucun filigrane. Pourtant, elle aussi a été générée artificiellement.

© Capture d’écran TikTok / Cette capture d’une vidéo TikTok générée par IA qui ne fait pas mention de l’utilisation d’IA.
Au-delà des éléments factuels et météorologiques qui indiquent qu’il ne neigeait pas à cette date dans la bande de Gaza, la qualité moyenne du rendu, les détails peu convaincants des mains des enfants et le flou présent dans l’image, typique des contenus synthétiques… ne laissent ici que peu de place au doute.
Des outils comme Hive Moderation permettent de confirmer avec certitude que l’image a été générée par IA.

Mais ce n’est pas toujours le cas. Le réalisme de plus en plus convainquant de certains de ces contenus créés avec des outils comme Sora 2 ou Nano Banana Pro et le manque de labellisation engendre parfois le doute, même parmi les utilisateurs les plus attentifs.
Des outils comme ceux-là deviennent même de vrais générateurs de désinformation. Nano Banana permet par exemple d’appuyer visuellement et de façon convaincante de faux narratifs. Dans un audit réalisé par la société NewsGuard, Nano Banana Pro de Google Gemini a généré 30 images pour appuyer 30 fausses affirmations testées, 100% des demandes ont été exécutées avec succès lors du test de ces outils pour illustrer de faux narratifs.
L’exemple de TikTok, plutôt « bon élève » en termes de labellisation IA
La labellisation des contenus générés par IA sur les réseaux sociaux est actuellement à géométrie variable. Elle se fait actuellement essentiellement sur base volontaire des utilisateurs qui décident d’utiliser les marques prévues pour signaler leurs contenus IA. Par exemple, TikTok « encourage » les créateurs à étiqueter leurs contenus qui ont été entièrement générés ou considérablement modifiés par IA.
Le réseau social prévoit aussi d’étiqueter ces contenus automatiquement lorsqu’ils ont été produits à l’aide des « effets IA » proposés par leurs propres services ou lorsqu’ils contiennent un label « C2PA » (Coalition for Content Provenance and Authenticity) par exemple, un filigrane présent sous forme de méta données développé par des acteurs importants des médias et des technologies comme la BBC, Adobe ou Microsoft. À savoir que d’autres initiatives d’authentification à l’aide de filigranes sont également accessibles (comme Google SynthID) ou en cours de déploiement mais elles nécessitent actuellement des analyses plus techniques (exports de vidéo, plateformes d’authentification externes, etc.).
TikTok interdit aussi les contenus considérés comme générés par IA et pouvant « porter préjudice » comme le « contenu qui partage ou présente de fausses sources officielles ou de faux événements de crise, ou qui falsifie certains contextes dans lesquels se trouvent des personnalités publiques. Cela inclut l’intimidation et les déclarations publiques effectuées par la personne ou à l’égard de celle-ci ».
Même si dans la théorie, l’approche de TikTok est assez proactive en la matière, dans la pratique, de nombreux contenus problématiques passent entre les mailles des filets. Ils sont parfois retirés, après avoir généré beaucoup de vues, comme ce fut le cas en décembre dernier de deepfakes du Premier ministre britannique, Keir Starmer, partagés par de nombreux comptes TikTok sans labellisation, selon NewsGuard.
Qu’en est-il d’Instagram, Facebook, Threads et… X
Instagram, Facebook et Threads procèdent à peu près de la même manière que TikTok. La maison mère de ces réseaux sociaux, Meta, demande à ses utilisateurs d’ajouter un label lors de la mise en ligne de certains contenus et donne des exemples.
Exemples de contenus créés numériquement qui nécessitent une étiquette sur Facebook, Instagram et Threads
- Une vidéo qui semble réaliste d’un groupe de personnes se promenant sur un marché en plein air
- Un fichier audio de deux personnes qui discutent
- Une chanson créée à l’aide d’une voix générée par l’IA
- Un reel avec une voix off réaliste générée par l’IA
Exemples de contenus créés numériquement qui ne doivent pas être étiquetés
- La vidéo d’un paysage extérieur, réalisée dans un style proche de la bande dessinée
- L’image d’une personne chevauchant un taureau
La délimitation entre les contenus d’IA qui doivent être labellisés comme tel et ceux qui ne sont pas soumis à cette obligation reste assez floue.
À l’instar de TikTok, Meta a aussi mis en place des étiquetages automatiques sur base de solutions techniques et développe des standards qui permettent de détecter si les contenus possèdent des filigranes (comme le C2PA) ou ont été générés à l’aide d’outils comme : Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock à mesure qu’ils mettent en œuvre leurs projets d’ajout de métadonnées aux images créées par leurs outils.
Actuellement, de nombreux contenus circulent pourtant sur ces plateformes sans être identifiés. Pire encore, des chatbots comme Gemini les identifient parfois comme étant des contenus réels.
Autre réseau social, autre approche. Contrairement à d’autres plateformes, X ne labellise pas les contenus issus de l’IA.
Dans ses conditions d’utilisation, X interdit cependant le partage de « médias synthétiques ou manipulés de manière trompeuse qui pourraient entraîner une confusion généralisée sur des questions publiques, avoir un impact sur la sécurité publique ou causer un préjudice grave ».
Les contenus générés par IA, ou produits eux-mêmes par Grok, l’IA de X, peuvent circuler sans mention ou authentification spécifique.
Deux textes européens importants concernant l’utilisation de l’IA et la désinformation
Le DSA
Le DSA, pour "Digital Services Act" (Règlement sur les services numériques), est une réglementation européenne qui vise à rendre Internet plus sûr en imposant des obligations aux plateformes en ligne pour lutter contre les contenus illégaux et protéger les utilisateurs.
Il s'agit d'un ensemble de règles qui responsabilise les plateformes en ligne (réseaux sociaux, marketplaces, etc.) active depuis le 17 février 2024 dans l'UE pour rendre l'espace numérique plus sûr et plus équitable, en les obligeant à mieux lutter contre les contenus illicites (haine, désinformation), à protéger les utilisateurs et à être plus transparentes sur le fonctionnement de leurs algorithmes. Le DSA s'applique à toutes les plateformes en Europe, mais impose des obligations plus strictes aux "très grandes plateformes" (plus de 45 millions d'utilisateurs). Concernant la désinformation, les "VLOPs" pour "Très Grandes Plateformes", comme Facebook, Google, TikTok sont tenus de faire des audits annuels des risques, fournir des données aux chercheurs et mettre en place des systèmes internes de modération et de réclamation. En termes de circulation de contenus trompeurs, le DSA s'appuie sur le Code de bonnes pratiques contre la désinformation de 2022, désormais intégré depuis 2025 dans le cadre juridique du DSA et devenu le Code de conduite sur la désinformation. Les signataires de ce code (incluant Google, Meta, Microsoft, TikTok, etc.) s'engagent à respecter des mesures concrètes, telles que la démonétisation des pourvoyeurs de désinformation et la réduction des comportements manipulateurs (comme les faux comptes, ou l'amplification de contenus par des bots). À noter que X, le réseau social d'Elon Musk, ne fait pas partie des signataires. Bien que le DSA ne prévoie pas de règles spécifiques en matière d’étiquetage des contenus générés par l’IA, elle exige des VLOP et des très grands moteurs de recherche en ligne (VLOSE) qu’ils évaluent et atténuent les risques systémiques, qui peuvent inclure les risques posés par les contenus générés par l’IA, non étiquetés ou trompeurs.L’AI Act
L'AI Act, ou Loi sur l'IA de l'UE est entrée partiellement en vigueur en août 2024 et est la première réglementation globale de l'intelligence artificielle. Elle vise à garantir des systèmes d'IA sûrs, éthiques et respectueux des droits fondamentaux, en classifiant les applications selon trois niveaux : risque inacceptable, haut risque et risque faible. Elle impose des obligations strictes pour les champs d'application d'IA les plus risquées et des interdictions pour les pratiques jugées inacceptables.
L'implémentation de l'AI Act se fait de façon progressive. Au mois de mai 2026, la rédaction du code sur le marquage et étiquetage des contenus générés par l’IA sera publié, pour une mise en application à l'été 2026.
L’article 50 de l’AI Act qui impose l’étiquetage des contenus générés par IA
Du changement se prépare concernant l’identification de ces contenus synthétiques. À partir du 2 août 2026, les obligations de transparence contenue dans l’AI Act de l’UE, y compris celles liées au marquage/étiquetage des contenus générés par IA deviendront applicables. La Commission européenne a publié en décembre dernier un premier projet de code de conduite pour étiqueter les contenus générés par l’intelligence artificielle pour détailler la mise en œuvre prévue cet été de l’article 50.
Cet article 50 de l’AI Act impose des règles selon lesquelles :
- les **fournisseurs** de systèmes d’IA générative (comme les modèles qui produisent du texte, des images, de l’audio ou des vidéos) doivent **faire en sorte que la sortie de leurs systèmes puisse être identifiée comme générée ou manipulée par IA** (par ex. via des métadonnées, un marquage lisible par machine ou par d’autres moyens techniques) dans un format visible.
- les **déployeurs** professionnels de tels systèmes doivent **étiqueter clairement certains contenus**, notamment les deepfakes et les contenus générés par IA sur des sujets d’intérêt public.
Le fournisseur d’IA est identifié comme celui qui conçoit, développe et commercialise un système d’IA en vue d’être déployé. Il s’agit d’acteurs comme Open AI (Chat GPT, Sora), Google (Gemini) ou Grok (xAI).
Le déployeur est identifié comme celui qui installe, paramètre et intègre l’IA au sein de son organisation ou chez ses clients. Il peut s’agir d’une banque, une chaîne de magasins, d’un média…
Il existe aussi des limitations et exceptions dans le texte, par exemple lorsque l’IA n’altère pas substantiellement un contenu existant ou effectue une fonction d’assistance, sans tromperie.
Grandes absentes de ce texte, les « plateformes » ne sont pas mentionnées dans cet article 50. Les réseaux sociaux actifs dans l’UE ne seront donc pas tenus de mettre systématiquement la mention « généré par IA » sur chaque post généré à l’aide de l’intelligence artificielle.
Alors que cela permettrait d’éviter le doute systématique d’éviter que l’IA soit utilisée pour soutenir la désinformation ou des narratifs complotistes, la législation européenne a préféré ne pas contraindre les réseaux sociaux à étiqueter tout contenu significativement produit avec de l’IA comme tel.
Une législation européenne qui ne sera visiblement pas infaillible
« Selon les principes de la législation européenne pertinente en matière de numérique, et notamment le règlement sur les services numériques, les plateformes sont considérées comme des intermédiaires qui, par définition, transmettent les informations. Elles n’ont donc, en principe, pas de responsabilité directe dans la diffusion des contenus. La responsabilité se place donc au niveau de l’utilisateur qui publie ce contenu et donc ça crée évidemment un bon argument pour les plateformes pour dire, quelque part, que ce n’est pas leur problème », explique Clément Maertens, chercheur doctorant spécialisé en droit de l’information à l’UCLouvain.
Le principe qui rentrera en application cet été mentionne que la création à l’aide d’IA doit être indiquée en « sortie » et donc par les fournisseurs et non les plateformes elles-mêmes sauf si, comme Grok de X, elle est intégrée. « Prenons typiquement l’exemple de chabots qui génèrent maintenant aussi des images. Ils auront l’obligation d’ajouter un tag ou un système qui fait en sorte que quand cette image est générée elle soit accompagnée d’une information à l’utilisateur qui précise qu’il s’agit d’un contenu généré par IA. Par exemple, quand on génère une image avec Gemini y a un petit losange qui s’affiche en bas à droite ».
Pourtant, les contournements à ces systèmes sont faciles. Dans le cas de la photo de Maduro évoquée en début d’article, l’auteur a après coup admis avoir créé la fausse image avec des outils de Google et a partagé avec l’AFP Factuel le résultat original sur lequel le filigrane est encore visible et qu’il a simplement coupé avant publication. Des plateformes moins respectueuses du droit européen pourraient aussi potentiellement contourner les règles prévues et rendre accessibles des outils qui ne contiennent ni filigrane, ni métadonnée spécifique à l’IA pour en faciliter la détection.

© Capture d’écran X / Ian Weber / La photo virale originale de Nicolas Maduro qui contient le filigrane en losange, signalé en rouge en bas à droite de l’image.
« Il est vrai que c’est un des problèmes de la régulation du monde numérique : le contournement est assez facile tant d’un point de vue de ces acteurs que des utilisateurs. La réglementation de l’Union européenne a vocation à ne s’appliquer qu’aux acteurs qui fournissent un service à l’intérieur de l’Union. On se retrouve donc bloqué de par la nature même de ce qu’est le droit dans l’UE qui ne peut pas mettre des règles en dehors de son de son champ de compétence », détaille le chercheur qui consacre sa thèse à la réglementation européenne qui vise à lutter contre la désinformation. « Il est d’abord impossible de contrôler tous ces acteurs. C’est par ailleurs aussi facile de répliquer un outil ou de transférer son site d’un pays à l’autre, en dehors de l’UE par exemple. Et donc, de ce point de vue là, le droit est assez impuissant, même si des mécanismes anti-contournement existent. »
Il y a une crainte de trop s’attaquer aux plateformes
Clément Maertens, chercheur-doctorant spécialisé en droit des médias et de l’information à l’UCLouvain
Par ailleurs, Clément Maertens estime que le cadre légal européen qui vise à s’attaquer à la désinformation et aux risques posés par l’IA générative et à son positionnement face à la responsabilité de ces plateformes comme les réseaux sociaux est contraint à une pression extérieure.
« Je pense qu’il y a une crainte, en tout cas du point de vue des Institutions européennes et de la Commission, de trop s’attaquer aux plateformes parce qu’elles ne veulent pas s’en prendre à leur puissance économique. Notamment en raison d’un lobbying très puissant des entreprises de la tech qui arrivent beaucoup mieux à défendre leurs intérêts devant les instances européennes que les partisans des libertés numériques qui sont beaucoup moins structurés et disposent évidemment de beaucoup moins de moyens. Ce phénomène s’est par ailleurs vraiment cristallisé avec le retour de Trump au pouvoir et cette peur des Européens de fâcher le président de États-Unis en s’attaquant à ses alliés comme Elon Musk ou Mark Zuckerberg », observe Clément Maertens.
L’application de l’article 50 de l’AI Act aura-t-elle vraiment en effet ?
Il y a quelques semaines, une décision européenne a pourtant suscité de l’espoir parmi les acteurs de la lutte contre la désinformation en Europe. Le 4 décembre 2025, la Commission européenne a infligé une amende de 120 millions d’euros à X pour « violation de ses obligations de transparence au titre du règlement sur les services numériques (DSA). Parmi ces violations figurent la conception trompeuse de sa ‘coche bleue’, le manque de transparence de son registre des annonces publicitaires et l’absence d’accès aux données publiques pour les chercheurs ». Le texte stipule par exemple que « l’utilisation par X de la « coche bleue » identifiant les « comptes vérifiés » induit les utilisateurs en erreur ».
Il s’agit de l’une des premières sanctions visibles pour des infractions au DSA. Cette décision intervient près de deux ans après l’ouverture d’une procédure formelle contre la plateforme X. Un délai en justice aussi long pour des thématiques aussi critiques et évolutives que la désinformation et l’IA posent des questions légitimes sur ces tentatives de légiférer. En particulier en ce qui concerne les délais de mise en application des règlements et les délais de sanctions pour des acteurs qui ne semblent pas être trop pénalisés par des amendes s’élevant à plusieurs millions d’euros.
« Je me demande dans quelle mesure nous ne devrions pas nous fier davantage au DSA qu’à l’article 50 de l’AI Act par rapport aux engagements pris par les très grandes plateformes et notamment sur le code de conduite sur la désinformation, qui vise également à résoudre ce problème des contenus IA potentiellement problématiques notamment au niveau politique. Cela fait partie de leurs responsabilités et de leur obligation de démontrer qu’elles se conforment à leurs engagements et qu’elles gèrent les risques systémiques. Cela permettrait aussi d’aborder la responsabilité des plateformes de médias sociaux de manière plus directe que la loi sur l’IA elle-même », estime Trisha Meyer, professeure associée en gouvernance numérique et membre de la Brussels School of Governance de la Vrije Universiteit Brussel.
Plus de transparence et des questions qui restent en suspens
Alors que les modalités techniques d’application de l’article 50 doivent encore être définies, une première ébauche concernant l’application du texte a été publiée à la mi-décembre. Elle comprend des détails plus techniques, comme l’idée par exemple d’une icone « IA » qui serait rendue visible et commune à l’ensemble des acteurs.
Concernant la rédaction de l’AI Act et la non responsabilisation des réseaux sociaux dans ce texte, la professeure de la VUB estime qu’il y a eu un certain nombre de groupes d’intérêts qui ont milité pour que les plateformes n’aient pas à labeliser systématiquement les contenus générés par IA, mettant en avant une certaine « liberté d’expression créative » pour laisser la place à des contenus satiriques, notamment.
Par ailleurs, si elle estime que la mise en œuvre de l’article 50 cet été ne résoudra pas les problèmes actuels en termes de désinformation à l’aide de l’IA, elle juge néanmoins qu’il y a des éléments positifs à en attendre : « Je pense que toutes les mesures qui nous permettent d’en savoir plus et d’avoir une meilleure transparence sur l’origine des contenus ou sur les pratiques des plateformes en matière de modération sont toujours utiles. Même si cela ne sera jamais suffisant. »
Pourquoi adopter des règles pour ensuite ne pas les appliquer pleinement ?
Trisha Meyer, professeure associée en gouvernance numérique (VUB)
Mme Meyer estime enfin que le texte n’aura d’utilité que si des mesures sont réellement prises pour changer des choses face aux problèmes, ce qui, selon elle, n’est pas suffisamment le cas. Elle prend comme exemple l’application actuelle du DSA. « Jusqu’à présent on peut estimer qu’il y a plus de transparence grâce au DSA mais que les résultats sont limités. Il faut qu’il y ait un vrai suivi. Par analogie, vous pouvez par exemple avoir davantage de transparence pour mettre en lumière la corruption mais si derrière vous ne faites rien pour lutter contre cette corruption, cela pourrait simplement ajouter de la désillusion par rapport au phénomène », observe la chercheuse, active dans le hub EDMO Belux contre la désinformation aux côtés d’aux acteurs comme l’AFP ou la RTBF.
Trisha Meyer espère que les premières procédures qui ont pris du temps ont ouvert la voie et vont permettre un suivi plus rapide des infractions au DSA. « Je pense que nous avons besoin d’une Commission européenne qui reste audacieuse sur ces matières et pour l’instant ce n’est pas ce que j’observe. Il est actuellement question de simplification réglementaire, y compris pour la loi sur l’IA. Mais alors pourquoi adopter des règles pour ensuite ne pas les appliquer pleinement, en partie à cause des questions de géopolitique ? ».
Enfin, la suite que la Commission réservera aux autres plaintes instruites au nom du DSA et la façon dont certains éléments de l’AI Act seront implémentés cet été apporteront aussi des éléments de réponses sur la façon dont le dispositif permet de lutter plus efficacement contre la désinformation à l’aide d’IA.