La désinformation s’impose désormais comme une menace réelle pour la démocratie européenne. Face à ce constat, Science Feedback, organisation fondée par Emmanuel Vincent, lance SIMODS. Ce projet européen fournit la première évaluation indépendante de la désinformation sur les grandes plateformes numériques. L’objectif est de mesurer l’ampleur des contenus trompeurs et tester la transparence promise par les géants du web dans le cadre du Digital Services Act (DSA).
Une méthodologie scientifique et paneuropéenne
Le rapport, publié le 29 septembre 2025, repose sur une approche rigoureuse. Six plateformes majeures — Facebook, Instagram, LinkedIn, TikTok, X/Twitter et YouTube — ont été étudiées dans quatre pays : France, Espagne, Pologne et Slovaquie.
Plus de 2,6 millions de publications, représentant 24 milliards de vues, ont été analysées. Des fact-checkers professionnels ont évalué manuellement les contenus selon des protocoles transparents et reproductibles. Les thématiques abordées couvraient cinq sujets d’intérêt public : guerre, climat, santé, migration et politique.
Seule LinkedIn a fourni l’intégralité des données demandées au titre du DSA. TikTok, malgré une ouverture d’accès API, n’a pas participé à temps. Les autres plateformes ont refusé toute coopération, illustrant les limites persistantes de la transparence numérique.
Cette étude constitue la première mesure concrète des indicateurs structurels de désinformation prévus par le Code de conduite européen.
TikTok et X, principaux foyers de désinformation
Les résultats soulignent de fortes disparités entre les plateformes. Sur TikTok, une publication sur cinq contient des informations fausses ou trompeuses. Cela représente un risque d’exposition dix fois supérieur à celui observé sur LinkedIn.
Sur X/Twitter, la situation est presque aussi préoccupante. Si l’on ajoute les messages « borderline » et les propos haineux, près d’un tiers des contenus sont problématiques. Les utilisateurs y sont régulièrement confrontés à des discours polarisants et manipulatoires.
À l’inverse, LinkedIn affiche seulement 2 % de désinformation. Ce résultat prouve qu’un modèle de diffusion basé sur la qualité et la modération est possible. Il démontre que l’architecture algorithmique d’une plateforme influence directement la fiabilité du contenu visible.
Les algorithmes amplifient les contenus trompeurs
L’étude met aussi en lumière un phénomène structurel inquiétant. Les comptes diffusant de fausses informations bénéficient d’un surcroît de visibilité sur la plupart des plateformes. À nombre d’abonnés égal, leurs publications obtiennent plus de vues et d’interactions.
Cet effet, observé partout sauf sur LinkedIn, montre comment les algorithmes de recommandation favorisent l’émotion et la polémique. Cette logique amplifie mécaniquement la portée des discours trompeurs et fausse le débat public.
Selon Emmanuel Vincent, directeur de Science Feedback, « la désinformation n’est pas marginale, elle structure une part du contenu en ligne ». Il appelle les régulateurs européens à renforcer leur vigilance face à ces mécanismes invisibles.
Un outil au service des régulateurs et de la société civile
Les conclusions de SIMODS tombent à un moment stratégique. Le DSA impose aux grandes plateformes de prouver qu’elles réduisent la désinformation. Pourtant, beaucoup d’entre elles ont pris leurs distances avec le Code de conduite sur la désinformation.
Le travail de Science Feedback fournit désormais une base scientifique pour évaluer ces engagements. Il offre aux régulateurs, chercheurs et journalistes un instrument fiable pour contrôler la conformité au DSA.
Ce projet marque une étape importante : il transforme une problématique floue en indicateurs mesurables. C’est un tournant dans la lutte pour la transparence numérique et la qualité du débat public.
Vers un baromètre européen de la désinformation
SIMODS n’en est qu’à sa première étape. Science Feedback prévoit de renouveler les mesures dès 2026 et d’élargir le périmètre géographique. Les prochaines éditions aborderont aussi la monétisation des contenus trompeurs et leur amplification algorithmique.
À terme, Emmanuel Vincent ambitionne de créer un baromètre européen permanent de la désinformation. Un outil destiné à guider les décideurs, les chercheurs et la société civile vers une information plus fiable.
En plaçant la méthode scientifique au cœur de l’évaluation, Science Feedback confirme sa mission : rendre la vérité mesurable et protéger la démocratie contre la manipulation numérique.
