PARTAGER | IMPRIMER | E-MAIL
La majorité républicaine de la commission judiciaire de la Chambre des représentants américaine vient de publier un volumineux «rapport intérimaire du personnel« (3 février) », présentant des preuves documentaires d’une censure numérique de grande ampleur exercée par les plateformes en ligne sous la supervision de la Commission européenne. Le rapport, intitulé « La menace de la censure étrangère, deuxième partie : la campagne européenne de dix ans visant à censurer l'Internet mondial… »Ce constat donne à réfléchir et confirme les pires craintes des détracteurs de la loi sur les services numériques (DSA). Il convient de souligner que le régime de censure permis par la DSA devrait inquiéter non seulement les Européens, mais aussi… non-Européens, car leur effet pratique, compte tenu des défis techniques et des coûts économiques liés à la mise en place de régimes de modération spécifiques à chaque région, est de restreindre la liberté d'expression dans le monde entier et pas seulement en Europe.
La DSA a ouvert la voie à la censure arbitraire
In cet article.J’avais prévenu le 5 septembre 2023, peu après l’application de la loi sur les services numériques (DSA) aux « très grandes plateformes en ligne » (VLOP), que « l’effet net de cette loi serait d’exercer une pression quasi irrésistible sur les plateformes de médias sociaux pour qu’elles jouent le jeu de la “contre-désinformation” d’une manière qui convienne aux auditeurs de la Commission, et leur évite ainsi de lourdes amendes ». Et, selon ce rapport, c’est précisément ce qui s’est produit.
Nous n'avons pas besoin de lire le rapport intérimaire de la commission judiciaire de la Chambre pour comprendre que le libellé de Loi sur les services numériques Ce texte confère à la Commission européenne un pouvoir discrétionnaire considérable en matière de contrôle des politiques de modération des contenus des plateformes. En effet, il impose aux plateformes en ligne des obligations de vigilance contraignantes afin d'atténuer des « risques systémiques » définis de manière vague, notamment ceux liés à la « désinformation » et aux atteintes au « débat public » et aux processus électoraux.
La loi elle-même laisse une marge d'interprétation considérable quant à la manière dont la Commission européenne et ses auditeurs évalueront les « risques systémiques » tels que la désinformation, les menaces au « débat civique » et les discours de haine, ainsi que la façon dont ils apprécieront l'efficacité des mesures d'atténuation mises en œuvre par les fournisseurs de services. Cette ambiguïté confère aux autorités chargées de l'application de la loi une large latitude d'interprétation. La Commission dispose de pouvoirs d'enquête et de sanction en vertu de la loi sur la désinformation, notamment la possibilité d'infliger des amendes pouvant atteindre 6 % du chiffre d'affaires annuel mondial d'une plateforme en cas de non-conformité.
Le rapport de 160 pages démontre de façon convaincante que la loi sur les services numériques constitue en réalité l'aboutissement d'une campagne menée depuis dix ans pour conférer à la Commission européenne un pouvoir toujours plus grand sur les politiques de modération des contenus des plateformes en ligne. Les multiples rebondissements de cette campagne, qui comprend notamment des codes de conduite « volontaires » antérieurs coordonnés par les institutions de l'UE, sont exposés dans le rapport. rapport.
Je me propose ici de me concentrer exclusivement sur ce que le rapport présente comme les conséquences amères de la loi sur les services numériques, à savoir les mesures de censure prises dans le cadre de ses mécanismes de contrôle. Le rapport s'attarde essentiellement sur les interactions entre la Commission européenne et TikTok et, si l'on suppose que les documents justificatifs sont authentifiés, il nous offre un aperçu inquiétant d'un système de censure profondément enraciné et totalement opaque pour le citoyen lambda. Ce n'est que la partie émergée de l'iceberg. Qui sait ce qui pourrait être découvert si un enquêteur avait accès à des preuves similaires sur d'autres plateformes telles que Meta, YouTube et LinkedIn ?
Comment fonctionne concrètement la supervision DSA
Les mécanismes de contrôle exercés par les autorités européennes sur les politiques de modération des plateformes, tels que décrits dans le rapport, présentent un schéma commun : la Commission européenne elle-même, ou les autorités nationales de régulation désignées en vertu de la loi sur les services numériques (appelées « coordinateurs des services numériques » dans chaque État membre), interrogent les plateformes sur leurs mesures d’atténuation des risques concernant un sujet particulier (par exemple, les vaccins, la désinformation électorale, les discours de haine ou la guerre en Ukraine), soit par écrit, soit oralement, et demandent des documents détaillant les mesures prises ou sur le point d’être prises. Les plateformes soumettent ensuite des rapports décrivant leurs efforts de mise en conformité et leurs plans pour renforcer leurs stratégies d’atténuation des risques, après quoi la Commission peut formuler des observations ou demander des mesures supplémentaires. Le rapport de la commission judiciaire de la Chambre des représentants qualifie de manière plausible nombre de ces échanges d’exercices de pression sur les plateformes afin qu’elles intensifient leurs efforts de modération pour éviter d’éventuelles sanctions.

Directives électorales de 2024
Mais ce rapport ne se contente pas d'évoquer une simple augmentation du volume de la modération : il porte également sur une influence unilatérale sur le caractère politique et idéologique des règles de modération. Après tout, la Commission tient un « tableau de bord » des politiques de modération des géants du numérique, s'appuyant notamment sur sa propre armée de « … »signaleurs de confianceCes sources, souvent issues d'ONG de gauche, ne sont pas neutres sur le plan idéologique ou politique. Il n'est donc pas surprenant que ce processus aboutisse à la restriction de contenus très critiques envers la politique et les engagements idéologiques progressistes, de gauche et technocratiques de la Commission européenne.
Un exemple est le Directives électorales En avril 2024, avant les élections européennes, la Commission européenne a publié une circulaire exhortant les plateformes à « actualiser leurs mesures d’atténuation des risques, réduire la visibilité de la désinformation (y compris la désinformation sexiste) », coopérer avec les vérificateurs de faits et élaborer des mesures visant à renforcer leur résilience face aux discours de désinformation ». La Commission a invité Apple, Google, LinkedIn, Meta, Microsoft, Pinterest, Snapchat, Wikimedia, X et YouTube à une table ronde sur la préparation aux élections et leur a rappelé qu’elle « surveille activement le respect » des obligations électorales prévues par le DSA et qu’elle « prendrait des mesures coercitives liées aux élections ».

Le Directives électorales Ces directives n'étaient pas intégrées à la loi sur les services numériques (DSA) et n'avaient aucune valeur juridique contraignante. Elles ont d'ailleurs été présentées comme des orientations et des recommandations, et non comme des obligations contraignantes. Cependant, le rapport intérimaire de la commission judiciaire de la Chambre des représentants allègue que, « à huis clos », lors d'une table ronde de Meta sur les directives électorales de la DSA, tenue le 1er mars 2024, Prabhat Agarwal, identifié dans le rapport comme un haut fonctionnaire chargé de l'application de la DSA, a décrit ces directives comme un « minimum » de conformité à la DSA, précisant que si les plateformes s'en écartaient, elles devraient « mettre en œuvre des mesures alternatives équivalentes ou supérieures ». Aussi étrange que puisse paraître une telle déclaration, elle est cohérente avec la notion, propre à la DSA, d'« obligation de diligence raisonnable » incombant aux grandes plateformes numériques de prendre des mesures raisonnables pour atténuer les risques liés à leur plateforme. Si l'autorité chargée de l'application d'une obligation vague propose un moyen infaillible de la satisfaire – même sous forme de « directive » –, cette dernière devient une solution tentante pour éviter les sanctions.

Preuve de conformité des plateformes : le cas de TikTok
Les plateformes ont-elles respecté les lignes directrices de la Commission pour les élections de 2024 ? D’après les communications internes des plateformes et les échanges entre ces dernières et des fonctionnaires de l’UE, reproduits ou résumés dans le rapport, il apparaît qu’au moins quelques En conséquence, les plateformes ont adapté leurs politiques. Le rapport de la commission indique notamment que TikTok a informé la Commission européenne avoir supprimé ou restreint plus de 45 000 contenus identifiés comme de la « désinformation », y compris des discours politiques sur des sujets tels que la migration, le changement climatique, la sécurité et la défense, et les droits LGBTQ, en amont des élections européennes de 2024.

Un résumé de la mise à jour des Règles de la communauté TikTok du 20 mars 2024, cité dans le rapport, mentionne des « mises à jour » de ces règles, « principalement liées à la conformité avec la loi sur les services numériques ». Ces mises à jour incluent des politiques visant à lutter contre la « marginalisation des discours et des comportements », la « désinformation qui compromet la confiance dans l'intégrité du processus démocratique » et la « déformation des informations faisant autorité, telles que les données scientifiques ». De l'aveu même de TikTok, l'objectif principal de ces changements était de se conformer à la loi sur les services numériques. Il ne s'agit pas de modifications de politique déterminées par des critères indépendants.

Maintenant, il est assez évident, si l'on examine les nouvelles politiques de TikTok lancées en 2024 pour garantir la conformité au DSA, qu'elles peuvent signifier à peu près n'importe quoi. souhaitez Il convient d'interpréter ces termes. Par exemple, le discours politique est intrinsèquement conflictuel ; ainsi, presque toute remarque hostile pourrait être perçue comme une « marginalisation de la parole et du comportement ». De même, si quelqu'un formule une critique de bonne foi de « l'intégrité du processus démocratique », est-ce qu'il « sabote la confiance » en ce processus ? Et qu'en est-il de la « déformation » des « informations faisant autorité » ? La science ne peut fonctionner que si les affirmations scientifiques dites « faisant autorité » ne sont pas artificiellement protégées des critiques les plus pertinentes.
Pression réglementaire subtile mais réelle
C'est vrai que le contours spécifiques le régime de censure de TikTok n'était pas imposé directement par la Commission européenne. La Commission n'a généralement pas pour vocation d'ordonner la suppression de publications spécifiques. Cependant, ces mesures ont manifestement été rédigées sous la pression du régime réglementaire de la DSA et de ses autorités de contrôle. TikTok, en élaborant des mesures visant à « atténuer les risques » en vue de se conformer à la DSA, a dû, d'une manière ou d'une autre, anticiper les points de vue des régulateurs concernant des risques définis de façon vague, tels que les « discours de haine », la « désinformation » et l'atteinte au « débat civique ».
Vous vous demandez peut-être comment TikTok a pu adapter ses politiques aux exigences des régulateurs européens si ces catégories de risques sont définies de manière si vague. La réponse est simple. Face à des enjeux financiers de plusieurs centaines de millions de dollars (des sanctions pouvant atteindre 6 % du chiffre d'affaires annuel mondial d'une plateforme), une entreprise avisée et disposant de ressources importantes s'attacherait à décrypter les enjeux et à comprendre les orientations politiques et idéologiques des régulateurs européens. Elle serait ainsi en mesure d'anticiper les types de censure que la Commission européenne jugerait appropriés.
Par exemple, la Commission s'est systématiquement rangée du côté de l'industrie du vaccin et d'organismes de santé officiels comme l'OMS. Elle défend une perspective globalement progressiste de gauche sur les questions de genre, de discours de haine et d'environnement. De même, il est évident qu'elle souhaite lutter contre la propagande de guerre pro-russe. Ainsi, même si la DSA ne dresse pas une liste exhaustive des arguments susceptibles d'être ciblés par la censure, l'historique des initiatives législatives et des déclarations passées de la Commission révèle clairement ce qu'elle considère comme des « risques systémiques ». Ces intuitions sont sans aucun doute affinées lors des réunions publiques et privées avec les responsables de l'UE auxquelles les dirigeants des plateformes sont régulièrement convoqués.
Signalement des comptes TikTok slovaques « problématiques »
Si le rapport de la Chambre des communes est exact, il semblerait que les responsables européens n'hésitent pas à intervenir directement et à demander à une plateforme d'examiner un ou plusieurs comptes jugés « problématiques ». Le rapport indique qu'en septembre 2023, quatre jours avant les élections législatives slovaques, la Commission a transmis à TikTok un tableur contenant des listes de « comptes problématiques de TikTok slovaque » à examiner. Ce tableur recensait au moins 63 comptes, avec un nombre d'abonnés allant de 1 000 à 120 000. Selon le rapport de la commission judiciaire de la Chambre des communes,
Le rapport de synthèse post-électoral de TikTok indique que la plateforme a banni 19 comptes en réponse directe à la demande de la Commission européenne, dont cinq pour « incitation à la haine ». Seize comptes signalés par la Commission européenne ne présentaient « aucune infraction » ou « des infractions mineures », notamment des « comptes satiriques à vocation politique ». D'autres comptes ont été placés sur la « liste de surveillance » de TikTok.
Impasse entre la Commission européenne et X
Un géant des réseaux sociaux s'est ouvertement opposé aux ambitions réglementaires de la Commission européenne. En mai 2023, X s'est retiré du code de conduite « volontaire » contre la désinformation, précurseur du DSA, et ne semble pas mettre en œuvre les politiques de modération exigées par la Commission dans le cadre du DSA. De ce fait, la Commission a X dans son collimateur. Elle lui a infligé une amende conséquente de 120 millions d'euros pour non-respect du règlement, curieusement sur la base d'infractions apparemment mineures, telles que le non-respect de l'ancien système de certification de Twitter (la « Certified Blue Check ») ou le stockage d'informations d'intérêt public dans un format inapproprié. Il s'agit de la première amende infligée en vertu du DSA.

Le rapport semble corroborer les atteintes de la DSA à la liberté d'expression.
Je n'ai fait qu'effleurer le sujet de ce rapport. Mais, je l'espère, le constat est déjà assez clair : si ce rapport est exact – et si les communications qu'il cite ont été dûment authentifiées – alors il suggère que la DSA confère à un groupe restreint de fonctionnaires privilégiés le pouvoir de décider, par le biais de mécanismes de contrôle complexes dont la logique est impénétrable pour le citoyen lambda, quelles informations et arguments sont dignes d'être divulgués au public, et lesquels ne doivent jamais parvenir aux oreilles des citoyens.
Nous n'avions pas vraiment besoin de ce rapport pour constater que les élites politiques « progressistes » de l'Union européenne mettent en place, au vu et au su de tous, un système de censure complexe et à plusieurs niveaux. Cela ressort déjà clairement du texte. Loi sur les services numériques En soi. Toutefois, jusqu'à présent, notre connaissance de ce régime était plutôt d'ordre juridique, fondée davantage sur les implications logiques du libellé de la DSA et des mécanismes de contrôle qu'elle crée que sur des preuves concrètes de son application.
Ce rapport apporte des preuves documentaires potentiellement accablantes concernant divers mécanismes par lesquels des responsables européens semblent avoir instrumentalisé la loi sur les services numériques (DSA) pour contraindre les géants du numérique à restreindre considérablement la liberté d'expression politique des Européens, sous peine de sanctions économiques majeures. De plus, en raison des difficultés techniques et financières liées à la fragmentation des règles des plateformes, ces restrictions ont, dans les faits, été fréquemment appliquées hors d'Europe.
Maintenant que ces allégations et les preuves qui les accompagnent sont publiques, la Commission européenne se doit de s'expliquer. Jusqu'à présent, le porte-parole de l'UE pour les affaires numériques, Thomas Reigner, s'est contenté de déclarer : « Concernant les dernières allégations de censure : pur non-sens. Complètement infondées. » Reigner insinue-t-il qu'une commission judiciaire de la Chambre des représentants américaine a fabriqué de toutes pièces des courriels et des comptes rendus de réunions entre des responsables européens et des gestionnaires de plateformes numériques ?
J'attends avec grand intérêt une réponse plus sérieuse de la Commission européenne.
Réédité de l'auteur Substack
David Thunder est chercheur et maître de conférences à l'Institut pour la culture et la société de l'Université de Navarre à Pampelune, en Espagne, et récipiendaire de la prestigieuse bourse de recherche Ramón y Cajal (2017-2021, prolongée jusqu'en 2023), décernée par le gouvernement espagnol pour soutenir des activités de recherche exceptionnelles. Avant sa nomination à l'Université de Navarre, il a occupé plusieurs postes de recherche et d'enseignement aux États-Unis, notamment celui de professeur adjoint invité à Bucknell et Villanova et de chercheur postdoctoral au programme James Madison de l'Université de Princeton. Le Dr Thunder a obtenu son BA et MA en philosophie à l'University College Dublin, et son doctorat. en sciences politiques à l'Université de Notre Dame.
Voir tous les messages