La nouvelle Inquisition : comment les « vérificateurs de faits » de l'OTAN sont devenus des unités de guerre cognitive

4 views
Skip to first unread message

Roland Marounek

unread,
Nov 25, 2025, 6:04:08 AM (6 days ago) Nov 25
to alert...@googlegroups.com

Le « Bouclier de la Démocratie » de l’UE n’est que la dernière petite pointe de l’iceberg. Analyse longue mais essentielle ci-dessous

Voir également https://groups.google.com/g/alerte-otan/c/ZZgx8mlkjjY/m/4C-k2DEKAwAJ (2021)

 

Les vérificateurs de faits vérifient-ils réellement les faits, ou vous indiquent-ils ce que vous devez croire ?

Par Thomas S. Karat, 18 novembre 2025
https://karat.substack.com/p/are-fact-checkers-really-checking
traduction semi automatique

La nouvelle Inquisition : comment les « vérificateurs de faits » de l'OTAN sont devenus des unités de guerre cognitive

Avez-vous remarqué que presque chaque fois que vous remettez en question un article grand public en ligne, une « vérification des faits » apparaît soudainement pour vous indiquer ce que vous devez penser ? Cela semble rassurant, jusqu'à ce que vous réalisiez qui se cache derrière. Ces vérificateurs de faits ne sont pas des arbitres neutres ; ils font partie intégrante de la stratégie de guerre cognitive de l'OTAN, un programme conçu non pas pour vous protéger des mensonges, mais pour contrôler ce que vous croyez. Leur véritable travail consiste à maintenir le public occidental, c'est-à-dire vous et moi, dans un alignement psychologique avec les guerres de l'OTAN, ses ennemis et sa vision du monde. Lorsqu'ils qualifient la dissidence de "désinformation", ils ne corrigent pas des erreurs, ils contrôlent les limites de la pensée acceptable. Il s'agit d'une forme de propagande discrète et civilisée, qui ne crie pas, mais murmure : « Faites-nous confiance. Ne posez pas trop de questions. » Et c'est ce qui la rend si dangereuse : car dès que vous cessez de vous poser des questions, ils ont déjà gagné.

Résumé

Les institutions occidentales de « fact-checking », de « vérification des faits » - dont East StratCom Task Force (EUvsDisinfo) de l'UE, Digital Forensic Research Lab (DFRLab) de l'Atlantic Council et ses succursales telles que Bellingcat - sont devenues des composantes intégrantes de l'appareil de guerre cognitive de l'OTAN. Créées officiellement après 2014 pour lutter contre la « désinformation », ces organismes opèrent sous le mandat politique et le financement des gouvernements occidentaux et des alliances militaires, brouillant les frontières entre la recherche de la vérité et la guerre de l'information. Dans cet exposé, je montrerai que :

Genèse institutionnelle et supervision

EUvsDisinfo a été créé en 2015 sous l'égide du Service européen pour l'action extérieure dans le but explicite de « lutter contre les campagnes de désinformation menées par la Russie » (eeas.europa.eu), sous la supervision de la politique étrangère de l'UE. Le DFRLab a été incubé au sein du think tank Atlantic Council, aligné sur l'OTAN, en 2016, en tant qu'équipe d'enquête open source, puis renforcé par des partenariats avec les géants technologiques et les gouvernements occidentaux (en.wikipedia.org wired.com). Des médias nominalement indépendants comme Bellingcat reçoivent également des subventions substantielles d'entités soutenues par l'État (par exemple, le National Endowment for Democracy américain et l'UE) (euvsdisinfo.eu). Ainsi, de nombreux vérificateurs de faits sont directement financés ou dirigés par des institutions de l'OTAN/de l'UE ou leurs mandataires, ce qui les intègre dans la structure de sécurité de l'État.

Doctrine de la guerre cognitive

Le concept développé par l'OTAN considère de plus en plus « le domaine humain » – les esprits et les perceptions des civils – comme un champ de bataille. En 2020, le Centre d'innovation de l'OTAN a appelé à reconnaître « l'importance renouvelée du sixième domaine opérationnel, à savoir le domaine humain », car toutes les actions militaires visent en fin de compte à « imposer un comportement souhaité à un public choisi » (innovationhub-act.org). Les documents de l'OTAN décrivent « le cerveau comme étant à la fois la cible et l'arme » dans les conflits liés à l'information et aux croyances (act.nato.int). Cette doctrine de la guerre cognitive brouille explicitement les opérations militaires dans la sphère politique et sociétale : « Tout utilisateur des technologies de l'information modernes est une cible potentielle. Elle cible l'ensemble du capital humain d'une nation. » (innovationhub-act.org). Les unités de vérification des faits ne sont donc pas des arbitres neutres de la vérité, mais des participants actifs à des campagnes d'influence stratégique, alignées sur les objectifs de l'OTAN visant à affaiblir les discours adverses et à façonner l'opinion publique pour des raisons de sécurité (act.nato.int).

Financement et réseaux

Ces organisations forment un réseau public-privé dense alimenté par des contrats gouvernementaux, des alliances de défense et l’argent des géants de la tech. La task force de l’Union européene East StratCom (qui gère EUvsDisinfo) était initialement petite et sous-financée, mais en 2019-2020, elle s'est développée grâce à des millions d'euros provenant du budget de l'UE (passant à 3-4 millions d'euros par an et 16 employés) (eeas.europa.eu cepa.org). Le DFRLab, qui fait partie d'un think tank de Washington dont les principaux donateurs sont le département d'État US et le gouvernement britannique, a reçu une subvention d'un million de dollars de Facebook en 2018 et est devenu un « partenaire » officiel de Facebook pour l'intégrité des élections (en.wikipedia.org wired.com). Bellingcat, malgré ses prétentions d'indépendance, affiche ouvertement son financement par le NED (un organisme de « promotion de la démocratie » financé par le Congrès US, longtemps utilisé pour mener des activités d'influence de type CIA au grand jour cf. declassifieduk.org declassifieduk.org) et par des organismes de l'UE (euvsdisinfo.eu). D'autres entreprises telles que Graphika et Moonshot CVE – souvent engagées par le GEC (Global Engagement Center) étatsunien ou par le Royaume-Uni pour surveiller l'« extrémisme » – font partie du même écosystème. Les recoupements de personnel sont fréquents : le directeur du DFRLab est un ancien membre du NSC (wired.com), les conseils d'administration de l'Atlantic Council comptent d'anciens chefs de l'OTAN et de la CIA (wired.com), et les forums « anti-désinformation » réunissent souvent ces acteurs.

Les partenariats public-privé abondent : par exemple, le DFRLab coordonne avec Meta les suppressions de contenu (wired.com), la Trusted News Initiative pilotée par la BBC rassemble les médias traditionnels et les géants de la tech dans un pacte de censure, et le système d'alerte rapide de l'UE sur la désinformation relie les agences gouvernementales aux plateformes et à l'unité StratCom de l'OTAN (eeas.europa.eu consilium.europa.eu). Des fonds provenant du GEC du département d'État US, de subventions de l'OTAN et de l'UE, du NED et même des Open Society Foundations de George Soros sont injectés dans ce réseau, créant ainsi un véritable moyen de communication financé par l'OTAN. Il convient de noter qu'une enquête menée en 2022 a révélé que le NED avait injecté plus de 2,6 millions de livres sterling dans des médias britanniques et des groupes de « vérification des faits » tels que Bellingcat entre 2016 et 2021 (declassifieduk.org), une pratique qu'un ancien agent de la CIA a comparée à l'utilisation du NED comme « bras droit » de la CIA pour mener ouvertement des opérations d'influence (declassifieduk.org).

Modus operandi

L'analyse de leurs publications révèle des modèles narratifs et linguistiques récurrents, qui correspondent aux objectifs de la guerre de l'information. EUvsDisinfo, en particulier, utilise un modèle linguistique répétitif : toute affirmation s'écartant des positions pro-OTAN est automatiquement qualifiée de « discours de désinformation pro-Kremlin récurrent », une expression qui apparaît plus de 3 000 fois (1 phrase sur 4) dans leur base de données (cees-roele.medium.com). Le contenu est souvent présenté sous un angle péjoratif – par exemple, en qualifiant l'affirmation visée de « sans fondement », de « théorie du complot » ou de « discours pro-russe » – avant de proposer une réfutation factuelle. En définissant les limites épistémiques, ils délégitiment de manière préventive les points de vue alternatifs. Souvent, les « vérifications des faits » consistent en une condamnation morale ou en une ridiculisation plutôt qu'en une réfutation objective. Par exemple, lorsque le site d'investigation Grayzone a révélé le financement occidental des services de renseignement de Bellingcat, EUvsDisinfo n'a pas répondu en réfutant cette information (il a en fait admis que Bellingcat « est financé par le NED et l'UE parmi de nombreuses autres sources »), mais en affirmant que cette allégation « vise à discréditer » un média réputé (euvsdisinfo.eu). Le message est clair : ne faites pas confiance aux critiques, faites-nous confiance. Ce schéma – qualifier les faits gênants de « désinformation » émanant d'acteurs malveillants – sert à immuniser le public contre les récits qui remettent en cause la version officielle.

Problèmes de crédibilité et de véracité

Il existe des cas documentés où ces vérificateurs de faits ont qualifié à tort des informations factuelles de fausses, ce qui a entraîné une censure ou une atteinte à la réputation des personnes qui disaient la vérité. Au début de l'année 2018, EUvsDisinfo a tristement mis sur liste noire trois grands médias néerlandais en les qualifiant de sources de « fausses informations », car leurs reportages sur des sujets tels que le crash du MH17 ne correspondaient pas parfaitement à la ligne officielle (dutchnews.nl). Ces médias néerlandais ont dû poursuivre l'UE en justice, ce qui a conduit à la suppression discrète des mentions diffamatoires et à une aveu embarrassé de l'erreur (euvsdisinfo.eu). Le DFRLab de l'Atlantic Council a également dépassé les limites dans son zèle : en 2021, il a fourni à Twitter une liste de 40 000 comptes supposés être impliqués dans un « réseau de désinformation indien » – l'examen interne de Twitter a révélé que quasi tous étaient de vrais utilisateurs légitimes, et non des robots (medium.com). (Les analystes du DFRLab avaient basé leur liste sur des données externes douteuses et, de manière révélatrice, Twitter n'a pas suspendu ces utilisateurs.) Une telle exagération illustre à quel point la lutte contre la « désinformation » peut facilement dégénérer en censure des discours véridiques ou des voix politiquement gênantes. D'autres exemples abondent : les théories sur la fuite du laboratoire COVID-19 et l'histoire de l'ordinateur portable de Hunter Biden ont été rejetées comme de la « désinformation » par ce réseau institutionnel, avant d’être ensuite validées, illustrant ainsi comment les « fausses nouvelles » d'aujourd'hui peuvent devenir les faits de demain lorsque le vent politique tourne. Pourtant, le complexe de la « sécurité cognitive » reconnaît rarement ses erreurs, car admettre une erreur compromettrait son autorité revendiquée sur la vérité.

Cadre psychologique et comportemental

L'OTAN et les gouvernements alliés déploient explicitement des techniques d'influence psychologique sous le prétexte de lutter contre la désinformation. Les études internes et les formations du Centre d'excellence StratCom de l'OTAN explorent la théorie de l'inoculation, les techniques de « prebunking » (pré-démenti) et de « nudge » (incitation) afin d'« immuniser » les publics cibles contre les idées jugées fausses (researchgate.net misinforeview.hks.harvard.edu). Dans la pratique, cela signifie implanter de manière proactive des contre-récits et un « cadrage émotionnel » avant que « l'ennemi » ne puisse s'exprimer – une stratégie directement tirée de la psychologie sociale.

Par exemple, les initiatives de «pré-démenti» (souvent sous la forme de jeux en ligne ou de publicités d'intérêt public) expose les gens à des doses atténuées de « fausses nouvelles » afin de renforcer leur résistance (nature.com). La théorie du nudge, qui consiste à orienter subtilement le comportement des utilisateurs (par exemple en incitant les utilisateurs des réseaux sociaux à lire des sources faisant autorité ou en les avertissant avant de partager des contenus « non vérifiés »), est un autre outil permettant de conditionner la perception du public sans que les utilisateurs ne se rendent compte de la manipulation. La neuropolitique est entrée dans le lexique : les chercheurs de l'OTAN parlent de « piratage du cerveau » et de « sécurité cognitive » comme de la nouvelle frontière (resiliencemedia.co polytechnique-insights.com). Les travaux universitaires liés aux pôles d'innovation de l'OTAN décrivent ouvertement l'« exploitation des vulnérabilités » de la cognition et des émotions humaines pour induire les résultats souhaités (act.nato.int). En bref, le réseau de vérificateurs de faits applique la même science comportementale que les unités de publicité ou de guerre psychologique – en exploitant la peur, le tribalisme et le biais de confirmation – pour « vacciner » la société contre les discours adverses. La frontière éthique entre l'éducation et le conditionnement social est régulièrement franchie lorsque les responsables considèrent les croyances des citoyens comme des objets de contrôle.

Intégration avec les plateformes technologiques

L'influence de ces vérificateurs de faits pseudo-indépendants est amplifiée par leur intégration formelle dans la modération des contenus des réseaux sociaux. Grâce à des programmes souvent appelés par euphémisme « partenariats de plateforme » ou de statut de « signalement de confiance », des organisations telles que DFRLab et EUvsDisinfo agissent essentiellement comme des censeurs délégués sur Facebook, Twitter, Google/YouTube, etc.

Le partenariat entre Facebook et l'Atlantic Council depuis 2018 a donné au DFRLab un accès privilégié à l'équipe de sécurité interne de Facebook et aux données des utilisateurs pour surveiller les élections (wired.com). Des courriels divulgués (via les Twitter Files) ont révélé que pendant les élections aux Etats-Unis de 2020, le DFRLab et le « Election Integrity Partnership » (EIP) dirigé par Stanford disposait d'une ligne directe avec Twitter et d'autres entreprises technologiques, leur envoyant en temps réel des listes de comptes et de publications à censurer (c21stleft.com). Dans un e-mail interne de l'Atlantic Council, le directeur du DFRLab a indiqué que l'EIP avait été « mis en place à la demande du DHS/CISA » (une agence gouvernementale étatsunienne), mettant en lumière la coordination continue en coulisses entre le gouvernement, les ONG et les plateformes (judiciary.house.gov).

Du côté de l'UE, un système d'alerte rapide relie Bruxelles, les membres de l'UE, le G7 et l'OTAN à un canal de communication commun pour signaler les tendances en matière de « désinformation » (eeas.europa.eu consilium.europa.eu). L'UE a également fait pression sur les grandes entreprises technologiques pour qu'elles adoptent un « code de bonnes pratiques sur la désinformation », désormais renforcé par la loi sur les services numériques (DSA) de 2022, qui oblige les plateformes à réduire ou de supprimer les contenus signalés par des vérificateurs de faits agréés (techpolicy.press c21stleft.com). En effet, les gardiens de la Silicon Valley ont externalisé un pouvoir important à ce cartel de la vérité aligné sur l'OTAN : si EUvsDisinfo ou des ONG partenaires qualifient un article de « faux » ou de « propagande », les algorithmes de Facebook et de Google le suppriment rapidement, et les comptes qui persistent à partager ce type de contenu risquent d'être suspendus. Cet arrangement fonctionne comme une application automatisée des discours approuvés par l'OTAN sur Internet. Des outils techniques tels que l'unité Jigsaw de Google et divers filtres de contenu basés sur l'intelligence artificielle s'appuient également sur les affirmations de ces vérificateurs de faits. Il en résulte une machine synergique de contrôle des discours : les gouvernements et les centres soutenus par l'OTAN fournissent les désignations de « désinformation », et les plateformes technologiques exécutent la surveillance à grande échelle.

Implications épistémiques et démocratiques

L'essor de ce complexe de « sécurité cognitive » pose un défi profond à la liberté de recherche et au discours démocratique. En s'arrogeant le rôle d'arbitres de la vérité, ces acteurs créent un monopole épistémique qui est contraire au pluralisme requis par la démocratie. Comme le prévient le philosophe Byung-Chul Han, un système qui filtre agressivement la vérité au nom des citoyens tend vers une nouvelle forme de totalitarisme doux, une « infocratie » où le pouvoir façonne la réalité en contrôlant la connaissance.

De fait, l'institutionnalisation par la loi sur les services numériques des vérificateurs de faits des ONG en tant que régulateurs de la parole a été critiquée comme une externalisation de la censure d'État à des intermédiaires privés, contournant les protections constitutionnelles de la liberté d'expression (c21stleft.com). Des critiques de tous bords (des journalistes de gauche aux universitaires libertaires) ont qualifié ce phénomène de « complexe industriel de la censure », soulignant comment il « fonctionne par le filtrage de la visibilité, l'étiquetage et la manipulation des résultats de recherche... réduisant au silence les opinions légitimes sur des sujets d'importance nationale, avec le soutien total d'"experts en désinformation" qui ont renié les valeurs journalistiques » (c21stleft.com).

Des journalistes chevronnés comme John Pilger et Seymour Hersh, qui ont remis en question les discours officiels, se sont retrouvés accusés de diffuser de la « désinformation », ce qui constitue un avertissement à leurs pairs que la dissidence a un coût sur le plan professionnel. Des lanceurs d'alerte ont révélé à quel point la lutte contre la désinformation peut facilement se transformer en censure politique intérieure. Par exemple, des courriels de la britannique Integrity Initiative (une opération psychologique secrète financée par le ministère des Affaires étrangères) ont révélé des plans visant à discréditer le leader de l'opposition Jeremy Corbyn en utilisant des think tanks alliés pour diffuser des informations, le tout sous le prétexte de lutter contre la « propagande russe ».

Loin de protéger la vérité, l'appareil utilise la « vérité » comme une arme pour réprimer les discours qui dérangent. Des universitaires tels que Piers Robinson et Tim Hayward (qui ont été diffamés pour avoir enquêté sur les récits en Syrie et en Ukraine) affirment que la sécurisation de l'information depuis 2015 a érodé les libertés académiques et de la presse. Robinson, ancien président du département Politique, société et journalisme politique de l'université de Sheffield, m'a expliqué dans une récente interview comment il est devenu une cible particulière après avoir contribué à révéler le témoignage censuré d'un lanceur d'alerte de l'OIAC sur l'incident chimique de Douma, remettant en cause un récit de guerre occidental fondamental que les médias grand public refusaient d'aborder. Sa carrière est un exemple typique de la manière dont les universitaires dissidents sont sanctionnés : en tant que théoricien respecté de la communication étudiant la propagande, il s'est retrouvé qualifié de « pro-Assad » et attaqué par les médias grand public après avoir insisté sur le fait que ce sont les preuves empiriques, et non les pressions politiques, qui doivent guider l'analyse des reportages sur les conflits.

Son expérience illustre comment le système de guerre cognitive ne se contente pas de contrôler le discours public, mais discipline également les universitaires eux-mêmes, en imposant une conformité idéologique qui sanctionne tout écart par rapport aux discours géopolitiques approuvés.

Parallèlement, toute analyse critique de la politique étrangère occidentale ou du pouvoir des entreprises est automatiquement qualifiée de « pro-Kremlin » ou de « théorie du complot », coupant court au débat (c21stleft.com). Les juristes s'alarment également, soulignant que des concepts tels que « désinformation » et « contenu extrémiste » restent si mal définis et politisés que le fait d'accorder à des organismes affiliés au gouvernement le pouvoir de censurer pour ces motifs ouvre la voie à des abus (c21stleft.com). La Déclaration de Westminster (2023), signée par un groupe transpartisan de journalistes et d'universitaires, affirme que « en qualifiant certaines positions politiques ou scientifiques de « désinformation » ou de « mésinformation », nos sociétés risquent de s'enfermer dans de faux paradigmes... Personne n'a le monopole de la vérité. La vérité doit être découverte par le dialogue et le débat, et nous ne pouvons découvrir la vérité sans accepter la possibilité de l'erreur » (c21stleft.com). En résumé, ce qui a commencé comme une campagne visant à contrer l'influence étrangère s'est transformé en un système d'hégémonie épistémique exercé par les États membres de l'OTAN et les géants de la technologie, un système qui contrôle la pensée des citoyens et pénalise tout écart par rapport aux discours approuvés.

Conclusion

Cette enquête souligne que les soi-disant vérificateurs de faits de l'OTAN ne sont pas les gardiens neutres de la vérité qu'ils prétendent être, mais des unités de combat dans une guerre cognitive visant l'esprit de leurs propres populations nationales. Leur création n'a pas été motivée par un élan en faveur de la vérité, mais par des programmes de sécurité répondant à des événements géopolitiques (opérations d'information de la Russie, etc.) et par le désir de façonner de manière préventive la perception du public à l'ère des « menaces hybrides ». Sous le couvert de la rhétorique noble de « renforcer la résilience » et de « protéger la démocratie », un appareil a été mis en place qui transforme l'information et la confiance en armes : il propage les discours officiels, délégitime la dissidence, contrôle le discours en ligne et cultive une atmosphère de quasi-inquisition contre les opinions hétérodoxes.

Les implications sont gravissimes. Alors que l'alliance occidentale confond de plus en plus la gestion de la propagande avec le service public, les citoyens sont confrontés à un espace d'information où la vérité n'est pas débattue ouvertement, mais transmise par des « experts » accrédités bénéficiant du soutien de l'État. Cette nouvelle inquisition peut prendre l'apparence de la science et de l'objectivité, mais elle sert un objectif stratégique : consolider un empire épistémique où l'OTAN et ses partenaires décident de ce qui est vrai, de ce qui est faux et de ce que les gens sont autorisés à penser. Un tel système pourrait permettre d'atteindre une « sécurité cognitive » à court terme, mais au détriment des valeurs démocratiques mêmes de transparence, de responsabilité et de libre pensée qu'il prétend défendre. Ce que j'ai décrit ici appelle un examen public urgent de ce réseau et une réaffirmation du fait que le remède à la désinformation ne peut être un monopole de l'information détenu par une élite. En fin de compte, une société qui sacrifie la libre recherche par crainte du mensonge risque de renoncer à la vérité elle-même.

Sources (dernière consultation pour vérifier leur validité en novembre 2025)

1.       EEAS East StratCom Task Force Q&A (octobre 2021) – Service européen pour l'action extérieure. FAQ officielle sur EUvsDisinfo, sa création en 2015 sur mandat du Conseil européen, ses objectifs, la définition de la désinformation, son budget (11,1 millions d'euros d'ici 2021) et sa coopération avec le G7, l'OTAN, etc. eeas.europa.eu. (Site officiel de l'UE) URL : https://www.eeas.europa.eu/eeas/questions-and-answers-about-east-stratcom-task-force_en

2.       Conclusions du Conseil de l'UE (19-20 mars 2015) – Réunion du Conseil européen qui a chargé le Haut Représentant d'élaborer un plan d'action sur la communication stratégique pour contrer la Russie, ce qui a conduit à la création de l'East StratCom. eeas.europa.eu. (UE consilium.europa.eu) URL : https://www.consilium.europa.eu/media/ 21888/conclusions-du-conseil-européen-19-20-mars-2015-en.pd

3.       EUvsDisinfo – À propos/Introduction – Résumé du site web officiel d'EUvsDisinfo : « projet phare de la task force East StratCom, créé en 2015 pour mieux prévoir, traiter et répondre à la désinformation pro-Kremlin ». Confirme son rattachement institutionnel au SEAE. URL : https://euvsdisinfo.eu/about/

4.       Atlantic Council – Digital Forensic Research Lab – Page du programme de l'Atlantic Council. Indique que le DFRLab a été « incubé à l'Atlantic Council en 2016 », mène des enquêtes open source pour « promouvoir la résilience numérique ». Mentionne plus de 1 000 enquêtes et une mission visant à « protéger les institutions démocratiques... garantir que les faits objectifs restent au centre des préoccupations » atlanticcouncil.org. URL : https://www.atlanticcouncil.org/programs/digital-forensic-research-lab/

5.       Conseil de l'Atlantique Wikipédia (financement du DFRLab) – Indique que le DFRLab a été fondé en 2016 ; Facebook est devenu l'un des principaux donateurs en 2018 avec un montant non divulgué, « le plaçant parmi les principaux donateurs tels que le gouvernement britannique » en.wikipedia.org. Indique que les sources de financement du DFRLab comprennent les grandes entreprises technologiques et le gouvernement britannique. URL : https://en.wikipedia.org/wiki/Atlantic_Council#Digital_Forensic_Research_Lab

6.       Wired (août 2018) – « Pourquoi Facebook a fait appel à ce laboratoire de recherche... » – Article approfondi sur le partenariat entre Facebook et le DFRLab wired.com. Détaille comment Facebook a versé environ 1 million de dollars à l'Atlantic Council, a ajouté le DFRLab à sa « salle de crise » électorale et comment le laboratoire a commencé à traquer les troupes russes via OSINT en 2014 wired.com. Révèle que le conseil d'administration de l'Atlantic Council est composé d'anciens fonctionnaires et que le don de FB en a fait l'un des principaux sponsors aux côtés du gouvernement britannique. en.wikipedia.org. URL : https://www.wired.com/story/facebook-enlists-dfrlab-track-trolls/

7.       EUvsDisinfo « Cas de désinformation » sur Bellingcat (octobre 2021) – Entrée dans la base de données EUvsDisinfo visant à réfuter les allégations concernant Bellingcat. Admet notamment que « le NED du gouvernement américain et l'Union européenne... contribuent financièrement à [Bellingcat] » parmi ses sources de financement euvsdisinfo.eu, tout en niant qu'il s'agisse d'une façade des services de renseignement occidentaux. Illustre le cadrage et la confirmation des sources de financement par EUvsDisinfo. URL : https://euvsdisinfo.eu/report/bellingcat-is-a-false-investigative-site-backed-by-western-intelligence-aimed-to-whitewash-terrorists-in-syria/

8.       Declassified UK (janvier 2022) – « Le bras droit de la CIA » accorde 2,6 millions de livres sterling aux médias britanniques » – Enquête menée par Kennard & Curtis. Détaille la manière dont le National Endowment for Democracy (NED) américain finance les ONG médiatiques britanniques. Cite Bellingcat, Index on Censorship, etc. parmi les bénéficiaires du NED, avec 2,6 millions de livres sterling versées entre 2016 et 2021 declassifieduk.org. Cite un directeur fondateur du NED qui affirme que le NED fait ouvertement « ce que la CIA faisait secrètement » et un ancien agent de la CIA qui qualifie le NED de « vecteur de propagande du gouvernement américain » declassifieduk.org declassifieduk.org. Fournit des informations contextuelles sur le rôle du NED dans le financement de Bellingcat et d'autres organisations en tant qu'outils d'influence. URL : https://www.declassifieduk.org/cia-sidekick-gives-2-6m-to-uk-media-groups/

9.       NATO Innovation Hub (novembre 2020) – Rapport « Cognitive Warfare » (Guerre cognitive) – Une étude parrainée par l'OTAN sur la guerre cognitive (par François du Cluzel). Définit la guerre cognitive comme « la manière d'utiliser les connaissances à des fins conflictuelles... appliquée aux domaines politique, économique, culturel et sociétal... qui cible l'ensemble du capital humain d'une nation ». innovationhub-act.org Souligne que tout utilisateur de technologie est une cible et qu'il est nécessaire d'utiliser les neurosciences comme arme. [PDF provenant de innovationhub-act.org]. URL : https://innovationhub-act.org/wp-content/uploads/2023/12/20210122_CW-Final.pdf

10.   Site web de l'OTAN ACT (2021) – Résumé « Guerre cognitive » – Briefing du Commandement allié Transformation qui déclare : « La guerre cognitive n'est pas le moyen par lequel nous combattons ; c'est le combat lui-même. Le cerveau est à la fois la cible et l'arme dans la lutte pour la supériorité cognitive » act.nato.int. Décrit également comment la Russie et la Chine ciblent l'opinion publique, et les efforts de l'OTAN pour développer ce domaine. URL : https://www.act.nato.int/activities/cognitive-warfare/

11.   Rapport du Centre d'excellence StratCom de l'OTAN – « Répondre aux défis de la sécurité cognitive » (2019) – (Référencé via le site du Centre d'excellence StratCom de l'OTAN). Discute des menaces pour la sécurité cognitive et de la manière dont les innovations technologiques les amplifient stratcomcoe.org. Illustratif de l'approche du Centre d'excellence de l'OTAN concernant le domaine cognitif en tant que frontière de sécurité. URL : https://stratcomcoe.org/publications/responding-to-cognitive-security-challenges

12.   Coopération UE-OTAN en matière de menaces hybrides (actualités du Centre d'excellence hybride, 2017) – Annonce de la création du Centre européen d'excellence pour la lutte contre les menaces hybrides à Helsinki. L'UE et l'OTAN ont « salué la création du Centre d'excellence hybride » afin de renforcer leur coopération. Confirme que le Centre d'excellence hybride est une initiative conjointe à laquelle participent activement l'OTAN et l'UE, axée sur « l'effacement des frontières entre guerre et paix... y compris les mesures de désinformation » hybridcoe.fi. URL : https://www.hybridcoe.fi/news/eu-and-nato-welcome-hybrid-coe/

13.   Cinquième rapport d'étape UE-OTAN sur les menaces hybrides (juin 2020) – Rapport officiel détaillant la coopération. Note que « le groupe de travail StratCom Est du SEAE a continué à collaborer avec le Centre d'excellence StratCom de l'OTAN à Riga... sur le matériel de formation... la simulation conjointe d'attaques de désinformation... la sensibilisation » consilium.europa.eu. Il indique également que le système d'alerte rapide de l'UE fonctionne avec l'OTAN et le G7 RRM eeas.europa.eu. Démontre le lien institutionnel entre EUvsDisinfo et NATO StratCom. URL : https://www.consilium.europa.eu/media/44451/200616-progress-report-nr5-eu-nato-eng.pdf

14.   Plan d'action de l'UE contre la désinformation (2018) – Document de la Commission européenne définissant la désinformation et décrivant les mesures à prendre cees-roele.medium.com. Donne la définition souvent citée de la désinformation par l'UE (informations manifestement fausses diffusées intentionnellement dans le but de nuire) adoptée par East StratCom eeas.europa.eu. Présente le fondement politique du mandat de EU vs Disinfo. URL : https://ec.europa.eu/info/sites/default/files/eu-communication-disinformation-euco-05122018_en.pdf

15.   Plan d'action européen pour la démocratie (2020) – Politique de l'UE qui a élargi la lutte contre la désinformation, proposant de renforcer le code de bonnes pratiques et une éventuelle réglementation (précurseur du DSA) cepa.org. Indique un soutien politique de haut niveau aux initiatives de filtrage de la vérité. URL : https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=JOIN%3A2020%3A790%3AFIN

16.   Système d'alerte rapide – Coopération G7/OTAN – Les questions-réponses du SEAE mentionnent que la plateforme RAS permet l'échange d'informations avec le mécanisme de réaction rapide du G7 et l'OTAN eeas.europa.eu. Souligne la manière dont les alliés occidentaux coordonnent les alertes de « désinformation » entre les gouvernements. URL : (mêmes questions-réponses du SEAE StratCom que la source n° 1)

17.   Medium (Cees Roele, 2021) – « Explorer la « désinformation » chez EUvsDisinfo » – Analyse des données du contenu d'EUvsDisinfo. Montre la fréquence extrême d'expressions telles que « discours de désinformation pro-Kremlin récurrent » (plus de 3 000 occurrences) et l'attention exclusive portée à la Russie/l'Ukraine cees-roele.medium.com. Fournit une confirmation indépendante des schémas linguistiques et du cadrage narratif d'EUvsDisinfo. URL : https://cees-roele.medium.com/exploring-disinformation-at-euvsdisinfo-6cec6c7f05e2

18.   EUvsDisinfo – Suppression des cas néerlandais (mars 2018) – Avis officiel d'EUvsDisinfo retirant trois cas après des plaintes des médias néerlandais. Reconnaît que les articles de De Gelderlander, GeenStijl et The Post Online ont été « inclus à tort » comme désinformation et ont été supprimés euvsdisinfo.eu. Illustre un exemple d'étiquetage erroné par East StratCom et de rétractation ultérieure. URL : https://euvsdisinfo.eu/removal-of-three-cases-further-to-complaints-by-dutch-media/

19.   Actualités néerlandaises – « Les médias néerlandais poursuivent l'UE en justice » (février 2018) – Article sur le procès intenté par les médias néerlandais contre EUvsDisinfo. Confirme la mission d'East StratCom de contrer la Russie et note qu'EUvsDisinfo a retiré certains sites néerlandais de sa liste après des menaces juridiques, mais que les médias ont demandé une rectification officielle. dutchnews.nl. URL : https://www.dutchnews.nl/2018/02/dutch-media-outlets-take-eu-to-court-over-disinformation-claims/

20.   DFRLab Medium – « DFRLab répond aux Twitter Files » (mars 2023) – Réponse officielle de DFRLab au fil Twitter Files de Matt Taibbi. Confirme que DFRLab a effectivement signalé 40 000 comptes à Twitter en 2021 et que Twitter a trouvé « presque tous... des utilisateurs authentiques », obligeant DFRLab à abandonner ses recherches medium.com. Tente de justifier son processus, mais valide en fait son excès. URL : https://medium.com/dfrlab/the-dfrlab-responds-to-twitter-files-story-ec19222b09af

21.   Rapport de la commission judiciaire de la Chambre des représentants (novembre 2023) – « The Weaponization of Disinformation » (L'utilisation de la désinformation comme arme) – Rapport du Congrès américain sur l'influence du gouvernement dans les médias sociaux. Contient des preuves sous forme d'e-mails indiquant que l'Election Integrity Partnership (EIP) a été « mis en place à la demande du DHS/CISA » en 2020, impliquant Stanford, DFRLab, etc. judiciary.house.gov. Démontre l'initiation par le gouvernement de projets de censure prétendument civils. URL : https://judiciary.house.gov/sites/republicans-judiciary.house.gov/files/ 2023-11-07-Staff-Report-The-Censorship-Industrial-Complex.pdf

22.   Déclaration de Westminster (octobre 2023) – Déclaration de journalistes et d'universitaires du monde entier contre la censure. Dénonce le fait de qualifier les discours protégés de « désinformation » et met en garde contre la suppression coordonnée par les gouvernements, les entreprises technologiques et les ONG (le « complexe industriel de la censure »). Passages clés : « Personne n'a le monopole de la vérité... En qualifiant certaines positions de « désinformation », les sociétés risquent de s'enfermer dans de faux paradigmes... La censure au nom de la « démocratie » transforme un système ascendant en un contrôle idéologique descendant ». c21stleft.com. URL : https://c21stleft.com/2023/10/20/the-westminster-declaration-struggle-for-free-speech-against-censorship/

23.   Ben Norton (Monthly Review, octobre 2021) – « Behind NATO’s ‘Cognitive Warfare’ » (Derrière la « guerre cognitive » de l'OTAN) – Article d'investigation sur la stratégie de guerre cognitive de l'OTAN. Explique que les documents de l'OTAN prévoient de « militariser les sciences du cerveau » et de cibler la confiance des populations civiles. Cite l'OTAN déclarant que l'esprit humain est le nouveau domaine de la guerre. URL : https://mronline.org/2021/10/15/behind-natos-cognitive-warfare/

24.   Loi européenne sur les services numériques (2022) – Texte officiel – Réglementation européenne qui, parmi de nombreuses dispositions, exige des très grandes plateformes en ligne qu'elles atténuent les risques de désinformation et collaborent avec des « chercheurs agréés » et des vérificateurs de faits. Institue dans la loi certaines parties du code de bonnes pratiques de 2018, imposant de facto une collaboration en matière de modération des contenus avec des experts agréés en matière de « désinformation » c21stleft.com. URL : https://eur-lex.europa.eu/eli/reg/2022/2065

25.   Code de bonnes pratiques de l'UE sur la désinformation (2018 ; renforcé en 2022) – Code volontaire signé par les principales plateformes (Facebook, Google, Twitter, etc.) pour autoréguler la désinformation. En vertu de la DSA, le respect de ce code devient semi-obligatoire. Il illustre la manière dont les entreprises technologiques se sont engagées à modifier leurs algorithmes, à supprimer les bots, à démonétiser les contenus « faux », etc. URL : https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation

26.   Résolution du Parlement européen sur l'ingérence étrangère (janvier 2025) – Position politique du Parlement européen reconnaissant les menaces liées à la désinformation et soutenant des mesures plus strictes. Cela reflète le climat politique actuel qui donne la priorité à la lutte contre la désinformation, même au détriment de la liberté de la presse (par exemple, en applaudissant l'interdiction des médias russes). URL : https://www.europarl.europa.eu/doceo/document/TA-9-2025-0018_EN.html

27.   Reuters – « Des journalistes néerlandais intentent un procès contre l'interdiction de RT par l'UE » (2022) – Exemple de réaction : des journalistes et des groupes de défense des droits néerlandais contestent l'interdiction des diffuseurs russes par l'UE, qu'ils considèrent comme une restriction illégale. Montre le débat sur la limite à fixer entre la lutte contre la désinformation et la censure des médias. URL : https://www.reuters.com/business/media-telecom/dutch-journalists-rights-group-file-lawsuit-challenging-eu-ban-rt-sputnik-2022-03-30/

28.   CEPA – « Defense Against Disinformation: A Mixed Report Card » (Lutte contre la désinformation : un bilan mitigé) (Janvier 2021) – Rapport d'un groupe de réflexion pro-OTAN (Center for European Policy Analysis) décrivant la structure émergente de lutte contre la désinformation « à l'échelle de la société ». Reconnaît que l'East StratCom Task Force était « initialement très sous-financée... élargie à 16 membres en 2020 » et que son avenir était incertain en 2021. Il note également que le système d'alerte rapide n'avait encore émis aucune alerte en 2020 (cepa.org). Utile pour comprendre comment les initiés perçoivent l'appareil de désinformation. URL :https://cepa.org/comprehensive-reports/democratic-offense-against-disinformation/

29.   Bloomberg – « Une petite agence américaine lutte contre les théories du complot liées au Covid » (2020) – Article sur le Centre d'engagement mondial (GEC) des États-Unis. Détaille le mandat du GEC dans la lutte contre la propagande étrangère et mentionne les subventions accordées aux ONG et les collaborations technologiques. Fournit des informations contextuelles sur le rôle croissant du gouvernement américain dans la lutte contre la désinformation, y compris les chevauchements au niveau national. URL : https://www.bloomberg.com/news/features/2020-09-25/inside-the-u-s-government-s-war-on-covid-19-disinformation

30.   Graphika – Page « Services gouvernementaux » – Graphika (société d'analyse des réseaux sociaux) annonce ouvertement qu'elle collabore avec le gouvernement, des groupes de réflexion et des ONG pour lutter contre la désinformation. Indique le marché des prestataires privés dans ce domaine. URL : https://graphika.com/government

31.   Defense One – « Le bureau du département d'État chargé de lutter contre la désinformation pourrait fermer » (août 2021) – Information selon laquelle le GEC était confronté à des problèmes de financement. Il est à noter que le GEC avait accordé des subventions à des groupes de surveillance tels que Graphika, qui produisaient des rapports sur la désinformation. defenseone.com. Confirme le lien direct entre le financement du Département d'État/GEC et les organismes privés de lutte contre la désinformation. URL : https://www.defenseone.com/technology/2021/08/shuttering-state-office-leaves-us-largely-defenseless-against-disinformation-threat/184810/

32.   Lettre de la sous-commission de la Chambre des représentants au GEC (mai 2023) – Les membres du Congrès américain remettent en question l'implication du GEC dans le signalement de discours nationaux (par exemple, ils remettent en question le travail du GEC avec Twitter, les listes du DFRLab, etc.). Ils soulignent leur inquiétude quant au fait que les efforts de lutte contre la désinformation financés par le gouvernement ont conduit à la censure des Américains (par exemple, la discussion sur la fuite du laboratoire a été signalée comme « propagande étrangère »). URL : https://smallbusiness.house.gov/uploadedfiles/05-16-23_oil_letter_to_state_department_re_gec.pdf

33.   Consortium News – « Liberté et démocratie par la censure » (C. Johnstone, mars 2022) – Commentaire sur le paradoxe des affirmations selon lesquelles la censure (de médias tels que RT) protège la liberté. Critique la tendance de l'OTAN et des États-Unis à censurer sous prétexte de défendre la démocratie. URL : https://consortiumnews.com/2022/03/03/caitlin-johnstone-freedom-democracy-via-censorship/

34.   Project Censored – « The Meta-Censorship Complex » (2022) – Analyse de la manière dont les entreprises de médias sociaux, souvent guidées par des partenariats avec le gouvernement et des groupes de réflexion, sont devenues des censeurs de l'information. Discute du rôle de l'Atlantic Council avec Facebook et de l'externalisation de la censure à des organisations privées (telles que NewsGuard, etc., qui reçoivent également des fonds publics). URL : https://www.projectcensored.org/the-meta-censorship-complex/

 


Sans virus.www.avast.com
Reply all
Reply to author
Forward
0 new messages