Analyse des réponses apportées par les gouvernements à la désinformation en ligne
par Samuel Cipers, Trisha Meyer et Jonas Lefevere
article publié dans Internet Policy Review en décembre 2023
Cet article collecte, classe et analyse les réponses (n=239) apportées à la désinformation en ligne dans 103 pays et par dix organisations internationales et régionales actives sur six continents (au cours de l’année 2021). Nous avons classé chaque initiative dans l’une de nos onze catégories non exclusives en fonction de son intention, de son objectif et du type de désinformation ciblé. Nous avons également conçu notre étude comme une recherche comparative afin d’évaluer si le type de gouvernement (démocratique/autoritaire) déterminait l’approche suivie pour lutter contre la désinformation en ligne, s’il y avait une corrélation importante entre le degré de liberté de la presse dans un pays et les types de réponses apportées, et si la richesse générale d’un pays (mesurée en PIB par habitant) avait une influence sur les réponses apportées (ou leur diversité). Les résultats montrent une évolution de la focalisation des réponses apportées par les gouvernements à la désinformation en ligne au fil du temps. Nous avons également conclu, et c’est peut‑être plus important, que les démocraties, caractérisées par une grande liberté de la presse, adoptent une approche plus globale pour lutter contre la désinformation en ligne et se focalisent davantage sur l’intégrité de leur processus électoral et sur les initiatives médiatiques et éducationnelles que les autres types de gouvernement, mais aussi que les pays dont le PIB par habitant est supérieur mettent en place plus d’initiatives et disposent de plus de lois en la matière que les pays au PIB inférieur. Les pays autoritaires disposent en général de législations larges qui sont aussi souvent intégrées dans leur code pénal.
« La liberté d’expression, ce n’est pas la liberté de dire tout et n’importe quoi à une vaste audience ». Ou comment les plateformes régulent elles‑mêmes la mésinformation, les publicités à caractère politique et les campagnes électorales
par Samuel Cipers et Trisha Meyer
article publié dans la revue Politique européenne 2023/3
Les plateformes de réseaux sociaux ne sont pas de simples « tribunes improvisées » sur la place publique. Leurs algorithmes, leurs règles publicitaires, leur modération de contenu et leurs politiques relatives aux comptes déterminent ce qui est considéré comme acceptable en termes de formes d’expression et de discours. Cet article analyse les mesures prises par les plateformes dans le cadre des campagnes politiques en ligne. Nous avons suivi quatre plateformes de réseaux sociaux (Meta, Google, Twitter et TikTok) afin d’évaluer le type de modération de contenu et de compte priorisé, ainsi que la fréquence et le moment de leurs interventions (auto‑signalées) pour lutter contre la mésinformation/désinformation (politique/électorale). En outre, nous avons analysé leurs politiques en matière de campagnes électorales en ligne, qui s’apparentent à des mesures de lutte contre la désinformation, mais n’en sont pas, et nous avons comparé ces approches aux priorités et aux objectifs définis dans le nouveau code européen de bonnes pratiques contre la désinformation et la proposition de règlement de l’UE relatif à la transparence et au ciblage de la publicité à caractère politique. L’article contribue à un numéro spécial de la revue, consacré aux politiques numériques de l’UE, et apporte des informations sur le rôle d’autorégulation contrôlé des plateformes de réseaux sociaux. L’analyse du rôle, des stratégies, du succès et, enfin, du pouvoir de ces acteurs nous permet de mieux comprendre la manière dont l’UE élabore ses politiques dans le domaine numérique. Nous pensons qu’il importe d’examiner attentivement les politiques et les pratiques mises en place par les plateformes, puisqu’elles fixent les limites des discours acceptables en ligne, et de comprendre que les mesures prises pour réguler les discours politiques vont au‑delà de la régulation de la seule publicité à caractère politique et qu’elles incluent des politiques relatives aux comptes politiques et à la mésinformation politique/électorale.
La transparence, un signifiant vide ? Évaluation de la transparence des initiatives prises par l’UE et les plateformes concernant les acteurs politiques et la publicité à caractère politique
par Trisha Meyer et Agnieszka Vetulani- Cęgiel
en cours de relecture par le European Journal for Political Research trisha.meyer[at]vub.be pour obtenir l’accès
Cet article vise à se demander comment l’UE et les plateformes en ligne comprennent la notion de « transparence » dans la publicité à caractère politique et quelle est la responsabilité attendue des plateformes dans un contexte de débats politiques continus sur la régulation des plateformes en ligne. Nous y comparons plusieurs initiatives politiques en cours au niveau de l’UE (le nouveau code européen de bonnes pratiques contre la désinformation et la proposition de règlement de l’UE relatif à la transparence et au ciblage de la publicité à caractère politique) aux politiques (règles communautaires) et pratiques (conception des plateformes) mises en place par les plateformes pour assurer la modération des acteurs politiques et de la publicité à caractère politique. Nous pensons que la notion de transparence est utilisée comme un « signifiant vide » : une notion pleine de sens au niveau politique et assertif, mais qui donne différents résultats lorsqu’elle est appliquée dans la pratique. Après un court passage en revue de la littérature en matière de sphère publique numérique, de responsabilité des plateformes et de transparence dans le contexte de la publicité à caractère politique en ligne, l’article analyse les concepts de « publicité à caractère politique », d’« acteur politique », de « transparence » et la responsabilité attendue des plateformes dans les initiatives politiques de l’UE susmentionnées, et procède à une comparaison avec les politiques et les pratiques de plusieurs plateformes (Google, Mastodon, Meta, Microsoft, Telegram, TikTok, Twitter/X). Cet article vise donc à apporter une contribution aux discussions intellectuelles et politiques sur la transparence des plateformes et de la publicité à caractère politique en vue des élections européennes à venir.
Téléchargez la version PDF ici.
EDMO BELUX est le hub belge et luxembourgeois consacré à la recherche sur les médias numériques et sur la désinformation.
Il réunit un réseau étendu et expérimenté de fact‑checkers, de médias, d’analystes de la désinformation, d’organisations d’éducation aux médias et d’universitaires chargés de détecter, d’analyser et de mettre au jour les campagnes de désinformation nocives émergentes. Au moyen d’alertes rapides via son réseau, EDMO BELUX transmet ses fact‑checks et ses rapports d’enquête aux premiers intervenants en matière de désinformation (médias, société civile, gouvernement) afin de minimiser l’impact des campagnes de désinformation. En outre, EDMO BELUX organise des campagnes d’éducation aux médias destinées à sensibiliser les citoyens et les médias et à renforcer leur résilience en vue de lutter contre la désinformation. Enfin, le hub inscrit le contrôle, l’analyse et la sensibilisation à la désinformation dans un cadre de recherche multidisciplinaire visant à surveiller l’impact de la désinformation et des réactions des plateformes sur les processus démocratiques.