Scroll Top

Peut-on se fier aux IA pour vérifier des informations ?

Peut-on se fier aux IA pour vérifier des informations ? - Featured image

Author(s): Par @gregoire-ryckmans-127

  • Les plateformes d’intelligence artificielle (IA) générative sont de plus en plus accessibles et sont parfois utilisées pour vérifier des informations qui circulent, notamment sur les réseaux sociaux.
  • Si ces IA sont généralement efficaces pour fournir des informations figées dans le temps, comme répondre à la question : « quelle est la capitale de la Belgique ? », elles peuvent commettre des erreurs quand il s’agit d’élément d’actualité. Ces outils aux capacités technologiques importantes sont tributaires des informations dont elles se nourrissent.
  • Des études et des expériences menées par des journalistes indiquent que vérifier des informations avec des moteurs d’IA, comme ChatGPT, peut être risqué.

Avertissement : cet article se base sur des sources et des informations disponibles le 2 avril 2025. Compte tenu de l’évolution rapide des plateformes et des outils, certaines de ces informations pourraient ne plus être à jour au moment de sa lecture.


Les interfaces d’intelligence artificielle générative qui permettent les interactions avec les utilisateurs se sont multipliées et sont devenues accessibles au grand public ces dernières années. Véritable révolution technologique, ChatGPT a par exemple conquis une partie du grand public qui s’en sert aujourd’hui régulièrement. C’est notamment le cas en France où une étude d’opinion Ipsos de février 2025 indique que quatre Français sur dix utilisent l’IA dans un cadre professionnel ou privé. Dans la tranche des 18-24 ans, ce chiffre grimpe à trois jeunes adultes sur quatre qui en font usage.

Ces IA peuvent être d’une grande utilité au quotidien. Elles sont capables de coder des programmes informatiques complexes, de traduire du texte dans une multitude de langues, de générer des recettes de cuisine, du texte ou de l’image en quelques secondes. Mais pourquoi ne pourraient-elles pas démêler le vrai du faux des informations qui circulent notamment sur les réseaux sociaux ?

Aujourd’hui, des moteurs comme Grok ou Perplexity sont directement disponibles sur le réseau social X (1, 2) et permettent à ses utilisateurs de leur demander de vérifier des informations publiées dans des tweets. Mais la question de la véracité des informations affichées par ces différents modèles d’IA pose question. Peut-on réellement se fier à ces outils pour vérifier des informations ?

La question de la cohérence temporelle

Pour qu’une information soit factuelle, elle doit être à jour.

À titre d’exemple, la réponse à la question : « Qui est le Premier ministre belge ? » est, au moment de la publication de cet article : Bart De Wever. Pourtant, il n’est officiellement Premier ministre que depuis ce 3 février 2025. Une Intelligence Artificielle qui a analysé des millions de données qui ne sont pas à jour, pourrait citer des noms d’anciens premiers ministres belges, en fonction des dernières données qui ont été analysées.

Ainsi, consulté le 14 mars 2025, Gemini de Google (version 2.0 Flash) indique sans émettre de réserve : « Le Premier ministre belge actuel est Alexander De Croo ». Il s’agit de l’ancien Premier ministre Open Vld (ndlr, parti libéral flamand) qui a laissé sa place à Bart De Wever (N-VA, parti nationaliste flamand). Une erreur évidente pour une personne qui suit même de très loin la politique belge mais qui pourrait passer inaperçue pour une personne vivant à l’étranger, par exemple.

Une fois interpellé sur la question de la « fraîcheur » de ses informations, le modèle de Google admet son erreur et rectifie : « Oui, vous avez raison. Les informations les plus récentes indiquent qu’il y a eu un changement de Premier ministre en Belgique » et cite bien Bart De Wever.

De son côté l’assistant IA « Claude » de la société Anthropic indique également que le Premier ministre de Belgique est Alexander De Croo. Il précise néanmoins : « Je dois toutefois préciser que ma connaissance s’arrête en octobre 2024, donc si un changement est intervenu depuis cette date, je ne pourrais pas en être informé. »

Des modèles plus récents et connectés à Internet

Cette question de la mise à jour des données a évolué dans le temps. À son lancement à la fin de l’année 2022, ChatGPT n’était pas connecté à Internet et n’avait donc pas d’accès à des données en temps réel. Sa base de données, sa connaissance, s’arrêtait en 2020.

Impossible donc dans cette première version d’avoir des résultats garantis « à jour », comme vous pouviez en obtenir via une recherche sur Google, via l’onglet « Actualités » par exemple. Les données utilisées pour l’entraînement de ChatGPT s’arrêtaient à une certaine date, et ChatGPT n’avait donc pas connaissance des événements survenus après.

Aujourd’hui, l’IA la plus célèbre bénéficie d’un accès à Internet. GPT-4o mini, qui est accessible gratuitement de façon limitée intègre une base de connaissances qui s’arrête en juin 2024. Cependant, cette version peut dorénavant rechercher des informations en temps réel sur le web si nécessaire et afficher les sources en ligne. Raison pour laquelle le modèle affichera la bonne réponse à notre question, en indiquant Bart De Wever, s’appuyant sur l’article Wikipedia dédié à l’actuel Premier ministre

La question de l’accès aux sources journalistiques

Pour répondre à des requêtes sur des éléments liés à l’information ou a l’actualité, les IA « grand public » font appel aux ressources qu’elles ont pu analyser. Ainsi, la qualité des informations fournies dans les réponses de ces modèles dépend de la qualité des informations récoltées.

L’accès à des informations de qualité est donc un enjeu important dans ce cadre. Pourtant, les contenus journalistiques sont des contenus qui nécessitent du temps et de l’argent pour être produits. Dès lors, un grand nombre de médias ne sont pas disposés à fournir un accès gratuit à leurs contenus.

De plus, les modèles d’IA « connectés » qui permettent de sourcer des articles par exemple, ne génèrent à ce stade que très peu de clics vers les sites référencés. Cela pénalise les médias qui ont besoin de ce trafic pour se financer à travers notamment la publicité en ligne.

Un positionnement difficile pour les médias

En décembre 2023, le célèbre New York Times a attaqué en justice Open AI, la société derrière ChatGPT, en l’accusant d’avoir utilisé des millions d’articles pour entraîner le grand modèle de langage alimentant le robot conversationnel.

Le grand quotidien accuse la start-up d’avoir utilisé, sans aucune autorisation ni rémunération, des millions d’articles pour entraîner ses grands modèles de langage. Dans sa plainte, le New York Times cite plusieurs exemples de réponses fournies par ChatGPT qui reprenaient quasiment mot pour mot des articles publiés par ses journalistes.

Le quotidien redoutait que cet accès gratuit à leurs informations réservées à ses abonnés, n’impacte son audience en ligne et une baisse de ses revenus. Le New York Times réclame des « milliards de dollars de dommages » à OpenAI mais aussi la mise hors ligne des modèles alimentés par ses contenus.

D’autres médias d’informations ont fait le choix de signer des accords avec des acteurs de l’IA. C’est notamment le cas de l’importante agence de presse AP (Associated Press) qui a signé un contrat en 2023 avec OpenAI afin de lui donner accès à ses archives depuis 1985. Si ce contrat lui permet légalement d’entraîner ses modèles et d’élargir sa base de données (son LLM), elle ne lui permet pas pour autant d’accéder aux articles de l’agence en temps réel.

Quelle est la position de la RTBF ?

Comme un grand nombre de médias, la RTBF a décidé de mettre en place des solutions techniques pour empêcher des acteurs de l’IA d’accéder à ses articles.

« Même en laissant l’accès libre à nos contenus, ce sont les plateformes d’IA qui décident de leur visibilité et de leur priorité dans leurs réponses. Elles contrôlent déjà quels contenus elles mettent en avant, selon des critères opaques, ce qui leur donne un pouvoir considérable, indique Loic De Visscher, responsable de la coordination IA à la RTBF.

« Sans financement pérenne de l’information vérifiée et de qualité, il n’y a aucune garantie de maintien à moyen et long terme de ces contenus fiables. L’ouverture totale sans régulation est un jeu perdant à terme : elle risque de détruire progressivement la valeur même des contenus de qualité en rendant leur modèle économique intenable, laissant finalement le champ libre à la désinformation.« 

Le risque d’être exposé aux biais et aux tentatives de manipulation

Autre problématique soulevée depuis que les IA sont devenues accessibles au grand public : la possibilité que ces intelligences artificielles reproduisent des biais présents dans la société à travers les données que les modèles qui ont servi à leur entraînement ont emmagasinées.

Ces biais de l’IA, également appelés biais de « machine learning » ou biais d’algorithme, désignent les systèmes d’IA qui produisent des résultats biaisés reflétant et perpétuant des préjugés humains au sein d’une société comme les inégalités sociales ou raciales.

Si les données contiennent des biais, l’algorithme pourrait donc les reproduire tout en leur donnant une apparence d’objectivité. En effet, les algorithmes vont privilégier les caractéristiques les plus présentes dans sa base de données, indépendamment de la qualité de la source ou de la représentativité objective des faits.

Des chatbots d’IA exposés à la propagande russe

C’est notamment pour cette raison que des acteurs de la désinformation tentent d’inonder Internet.

Un audit effectué par la société NewsGuard a révélé que les dix principaux outils d’IA générative occidentaux ont intégré des éléments de désinformation de la propagande russe dans leurs réponses à des questions ciblées autour de la guerre en Ukraine. Globalement, ces outils d’IA occidentaux ont repris 33% du temps des fausses affirmations du réseau « Pravda », une entreprise de désinformation pro-Kremlin.

L’IA, nouvelle arme de manipulation sur le front de la désinformationL’IA, nouvelle arme de manipulation sur le front de la désinformation

« En inondant les résultats de recherche et les robots d’indexation de désinformation pro-Kremlin, le réseau fausse la façon dont les grands modèles de langage traitent et présentent les nouvelles et les informations. Résultat : en 2024, 3.600.000 articles – sont désormais incorporées dans les résultats des systèmes d’IA occidentaux, infectant leurs réponses avec de fausses affirmations et de la propagande », indique NewsGuard.

Le rapport mentionne que l’efficacité du réseau Pravda à infiltrer les réponses des chatbots d’IA peut être attribuée à des stratégies délibérées d’optimisation des moteurs de recherche (SEO). Et ce pour augmenter artificiellement la visibilité de son contenu dans les résultats de recherche. En conséquence, les chatbots d’IA, qui s’appuient souvent sur des contenus ouverts au public et indexés par les moteurs de recherche, deviennent plus susceptibles de se baser sur des contenus provenant des sites web créés par Pravda.

Des erreurs dans l’attribution des sources et le traitement de l’actualité

Comme expliqué en début d’article, les nouveaux modèles de chatbots d’IA ont désormais la possibilité d’accéder en temps réel à Internet afin d’y effectuer des recherches et d’y récolter des informations plus récentes.

Cependant, une étude de l’Université de Columbia aux États-Unis a identifié que ces moteurs de recherche boostés à l’IA rencontrent généralement des problèmes quand il s’agit de sourcer l’information et s’efforçaient parfois de fournir des réponses spéculatives avec conviction alors qu’ils n’en avaient pas. Pire, les outils de recherche génératifs fabriquent parfois des liens et citent des versions reprises ou copiées d’articles qui ne sont pas les sources originales.

La BBC a également publié une étude en février 2025 sur la façon dont ChatGPT, Copilot, Gemini et Perplexity intègrent ses contenus journalistiques dans les réponses et a déterminé que « les réponses produites par les assistants d’intelligence artificielle contenaient des inexactitudes importantes et déformaient le contenu de la BBC ».Dans le détail, le média public britannique précise que lors de cette enquête :- 51% de toutes les réponses de l’IA à des questions sur l’actualité ont été jugées comme présentant des problèmes importants d’une manière ou d’une autre.- 19% des réponses des IA qui citaient le contenu de la BBC comportaient des erreurs factuelles – au niveau des déclarations, des chiffres ou des dates.- 13% des citations extraites d’articles de la BBC étaient soit modifiées par rapport à la source originale, soit absentes de l’article cité.

Des chatbots versatiles

Enfin, la plupart de ces outils sont versatiles. En effet, les intelligences artificielles génératives proposent d’interagir avec elles via de la parole et du texte. Elles sont capables de détecter un ton, une expression, un accent. Elles peuvent aussi se baser sur l’historique des conversations antérieures avec vous.

Chaque réponse dépendra donc potentiellement de chaque utilisateur et de la façon dont celle-ci est formulée. Le risque d’avoir des informations « profilées » est bien réel. De plus, ces IA sont généralement très polies. Si vous les alertez sur des erreurs potentielles qu’elles auraient commises, elles sont alors très promptes à s’excuser et à s’adapter à vos remarques comme dans cette discussion entretenue par nos soins autour de la crédibilité d’une fausse étude scientifique.

Rappelez-vous également que la plupart de ces outils affichent des avertissements sur leurs pages d’accueil :

  • « **ChatGPT** peut faire des erreurs. Envisagez de vérifier les informations importantes. »
  • « **Claude** peut faire des erreurs. Assurez-vous de vérifier ses réponses. »
  • « Vérifiez les faits : Il est possible que Grok fournisse avec assurance des informations factuellement incorrectes, qu’il résume mal ou qu’il omette du contenu. Vérifiez toutes les informations de manière indépendante. »
  • Pas d’avertissement visible directement sur **Perplexity**. Mais interrogé sur sa fiabilité, il indique après une description de ses capacités : « Perplexity n’est pas infaillible. Des erreurs peuvent survenir, notamment en raison de la complexité des questions ou de la qualité des sources disponibles. Il est donc recommandé de toujours vérifier les informations critiques en consultant les sources citées ou en effectuant des recherches complémentaires. »

Pour toutes ces raisons, il est à ce stade potentiellement dangereux d’accorder une confiance trop importante aux chatbots d’IA actuellement accessibles au grand public pour faire de la vérification des informations. Un petit conseil, continuez à faire fonctionner votre esprit critique, interrogez les sources, recoupez-les.

Focus