Grès brun » Articles de l'Institut Brownstone » Vous devriez être très inquiet de la loi sur les services numériques
DSA

Vous devriez être très inquiet de la loi sur les services numériques

PARTAGER | IMPRIMER | E-MAIL

Article 11 de la Charte des droits fondamentaux de l’UE, qui reprend une partie de l’article 10 de la Convention européenne des droits de l'homme, protège le droit des citoyens européens « d’avoir des opinions et de recevoir et diffuser des informations et des idées sans ingérence des autorités publiques et sans considération de frontières » et affirme que « la liberté et le pluralisme des médias doivent être respectés ». Malheureusement, le sort de la liberté d'expression en Europe est désormais en jeu, alors que l'Union européenne vient de promulguer une loi qui habilite la Commission à restreindre considérablement la capacité des citoyens à utiliser les plateformes numériques pour s'engager dans un discours démocratique solide et sincère. . 

En vertu de la loi récemment adoptée Loi sur les services numériques, la Commission européenne pourrait exercer des pressions significatives sur les plateformes numériques pour lutter contre les « discours de haine », la « désinformation » et les menaces contre le « discours civique », qui constituent toutes des catégories notoirement vagues et glissantes, catégories qui ont historiquement été cooptées pour renforcer le récit de la classe dirigeante. En donnant à la Commission européenne de larges pouvoirs discrétionnaires pour superviser les politiques de modération des contenus des Big Tech, ce texte législatif tient la liberté d’expression en otage des penchants idéologiques de responsables européens non élus et de leurs armées de « signaleurs de confiance ». 

Objet de la loi sur les services numériques

L'objectif déclaré du Loi sur les services numériques (DSA) qui vient d’entrer en vigueur en Europe vise à assurer une plus grande « harmonisation » des conditions affectant la fourniture des services numériques « intermédiaires », notamment les plateformes en ligne qui hébergent des contenus partagés par leurs clients. La loi couvre un éventail ahurissant de questions, allant de la protection des consommateurs à la réglementation des algorithmes publicitaires, en passant par la pédopornographie et la modération des contenus. Parmi les autres objectifs qui apparaissent dans le libellé de la loi, on trouve la promotion d'un « environnement en ligne sûr, prévisible et digne de confiance », la protection de la liberté d'expression des citoyens et l'harmonisation des réglementations de l'UE affectant les plateformes numériques en ligne, qui actuellement dépendent des lois des différents États membres. 

Le DSA n’est pas aussi innocent qu’il y paraît

D'un simple coup d'œil superficiel, le Loi sur les services numériques (DSA) peut paraître plutôt inoffensif. Elle impose des exigences assez formelles aux « très grandes plateformes en ligne » telles que Google, Twitter/X, Facebook et TikTok pour qu'elles disposent de procédures de recours claires et qu'elles soient transparentes quant à leur réglementation des contenus préjudiciables et illégaux. Par exemple, l’article 45 de la loi se lit comme une exigence assez légère selon laquelle les fournisseurs de services numériques en ligne (« services intermédiaires ») tiennent les clients informés des termes et conditions et des politiques de l’entreprise : 

Les prestataires de services intermédiaires devraient indiquer clairement et tenir à jour dans leurs conditions générales les informations sur les motifs sur la base desquels ils peuvent restreindre la fourniture de leurs services. En particulier, ils devraient inclure des informations sur toutes les politiques, procédures, mesures et outils utilisés à des fins de modération du contenu, y compris la prise de décision algorithmique et l'examen humain, ainsi que les règles de procédure de leur système interne de traitement des plaintes. Ils devraient également fournir des informations facilement accessibles sur le droit de mettre fin à l'utilisation du service.

Mais si vous commencez à fouiller dans la loi, vous découvrirez très vite qu'elle est un poison pour la liberté d'expression et qu'elle n'est pas conforme à l'esprit de Article 11 de la Charte des droits fondamentaux de l’Union européenne, qui garantit aux citoyens la « liberté d’opinion et de recevoir et de communiquer des informations et des idées sans ingérence des autorités publiques et sans considération de frontières ». Ci-dessous, je détaille certains aspects de la loi qui, pris ensemble, constituent une menace sans précédent pour la liberté d'expression en Europe :

1. Le DSA (Loi sur les services numériques) crée des entités appelées « signaleurs de confiance » pour signaler les « contenus illégaux » qu'ils identifient sur les grandes plateformes en ligne. Les plateformes en ligne sont tenues par la loi de répondre rapidement aux signalements de contenus illégaux fournis par ces « signaleurs de confiance » nommés par les « coordinateurs des services numériques » nommés par les États membres. La loi exige que les grandes plateformes en ligne « prennent les mesures nécessaires pour garantir que les notifications soumises par des signaleurs de confiance, agissant dans leur domaine d'expertise désigné, par le biais des mécanismes de notification et d'action requis par le présent règlement sont traités en priorité. »

2. À proprement parler, même si les plateformes numériques sont tenues de répondre aux signalements de contenus illégaux soumis par des « signaleurs de confiance », il ressort du libellé de la loi que les plateformes ont le pouvoir discrétionnaire de décider comment réagir exactement à ces signalements. Ils pourraient, par exemple, être en désaccord avec l’avis juridique d’un « signaleur de confiance » et décider de ne pas supprimer le contenu signalé. Cependant, ils seront confrontés à des audits périodiques de la conformité de leurs actions avec la loi par des auditeurs travaillant pour le compte de la Commission européenne, et ces examens ne verront guère d'un bon œil une tendance à l'inaction face à un contenu signalé.

3. La loi sur les services numériques exige également que les « très grandes plateformes en ligne » (telles que Google, YouTube, Facebook et Twitter) entreprennent périodiquement des évaluations « d’atténuation des risques », dans lesquelles elles abordent les « risques systémiques » associés à leurs plateformes, y compris, mais sans se limiter à la pédopornographie, à la « violence de genre » (quoi que cela signifie), à ​​la « désinformation » en matière de santé publique et aux « effets négatifs réels ou prévisibles sur les processus démocratiques, le discours civique et les processus électoraux, ainsi que sur la sécurité publique ». Les plateformes ont des obligations de « diligence raisonnable » en vertu de la loi pour prendre les mesures appropriées pour gérer ces risques. Contrairement à un code de bonnes pratiques volontaire, le retrait n’est pas une option, et le non-respect de ces obligations de « diligence raisonnable » sera passible de lourdes sanctions.

4. Les sanctions attachées au non-respect de la loi sont remarquables. La Commission, si elle estime qu'une grande plateforme en ligne telle que X/Twitter n'a pas respecté le DSA, peut infliger une amende à ladite plateforme. jusqu'à 6 pour cent de son chiffre d'affaires mondial annuel. Parce que la notion de non-conformité est difficile à quantifier et assez vague (que faut-il exactement pour remplir les « obligations de diligence raisonnable » de la gestion du risque systémique ?), il semble probable que les entreprises qui souhaitent éviter des problèmes juridiques et financiers préféreraient faire preuve de prudence et faire preuve de « conformité » pour éviter de recevoir une amende.

5. Les audits périodiques envisagés par cette loi serviront d'outil à la Commission pour faire pression sur les grandes plateformes en ligne afin qu'elles prennent des mesures pour « gérer » les « risques » de désinformation et les menaces contre « le discours civique et les processus électoraux », risques notoirement répandus. vagues et sont probablement impossibles à définir de manière politiquement impartiale. La menace qui se cache derrière ces audits et leurs « recommandations » associées est que la Commission puisse imposer des amendes de plusieurs milliards de dollars aux plateformes en ligne pour non-conformité. En raison de la notion assez vague de non-respect des « obligations de diligence raisonnable » et du caractère discrétionnaire des sanctions financières menacées dans le DSA, cette loi créera une atmosphère d'insécurité juridique tant pour les plateformes en ligne que pour les plateformes en ligne. et pour leurs utilisateurs. Cela incite fortement les plateformes en ligne à contrôler le discours d’une manière qui satisfait la Commission européenne, autour de catégories vagues comme la « désinformation » et le « discours de haine », et cela aura évidemment des répercussions sur les utilisateurs finaux.

6. Selon la Commission européenne, « les crimes et discours motivés par la haine sont illégaux en vertu du droit de l’UE. La décision-cadre de 2008 relative à la lutte contre certaines formes d’expression du racisme et de la xénophobie exige la criminalisation de l’incitation publique à la violence ou à la haine fondée sur la race, la couleur, la religion, l’ascendance ou l’origine nationale ou ethnique. Il est important de souligner que la Commission européenne est favorable à l’élargissement des catégories de discours de haine illégaux à l’échelle européenne pour inclure non seulement « la race, la couleur, la religion, l’ascendance ou l’origine nationale ou ethnique », mais aussi de nouvelles catégories (vraisemblablement, y compris des choses comme l’identité de genre). Les discours de haine illégaux constituent donc une « cible mouvante » et sont susceptibles de devenir de plus en plus larges et politiquement plus chargés au fil du temps. Selon la Commission européenne propre site Web,

Sur 9 December 2021, le La Commission européenne a adopté une communication ce qui conduit à une décision du Conseil d'étendre la liste actuelle des « crimes de l'UE » figurant à l'article 83, paragraphe 1, du TFUE aux crimes de haine et aux discours de haine. Si cette décision du Conseil est adoptée, la Commission européenne pourrait, dans un deuxième temps, proposer un droit dérivé permettant à l'UE de criminaliser d'autres formes de discours de haine et de crimes de haine, en plus des motivations racistes ou xénophobes.

7. L’aspect le plus inquiétant du DSA est l’énorme pouvoir et discrétion qu’il confère à la Commission européenne – notamment une commission non élue – pour superviser le respect du DSA et décider lorsque les plateformes en ligne ne sont pas conformes à leurs obligations. des « obligations de diligence raisonnable » pour gérer des risques dont la signification est notoirement vague et manipulable, tels que les discours de haine, la désinformation et les discours anti-civiques. La Commission européenne se donne également le pouvoir de déclarer l’état d’urgence à l’échelle européenne, ce qui lui permettrait d’exiger des interventions supplémentaires des plateformes numériques pour contrer une menace publique. Il n’y aura aucune certitude juridique quant au moment où la Commission européenne pourrait déclarer une « urgence ». Il n’existe pas non plus de certitude juridique quant à la manière dont la Commission européenne et ses auditeurs interpréteront les « risques systémiques » comme la désinformation et les discours de haine, ou évalueront les efforts des prestataires de services pour atténuer ces risques, puisqu’il s’agit de pouvoirs discrétionnaires.

8 Il n’est pas clair non plus comment la Commission pourrait éventuellement entreprendre un audit des « risques systémiques » de désinformation et des risques pour le discours civique et les processus électoraux sans adopter une vision particulière de ce qui est vrai et faux, des informations salutaires et nuisibles, devançant ainsi le débat démocratique. processus par lequel les citoyens évaluent eux-mêmes ces questions.

9. On ne sait pas non plus quels freins et contrepoids seront en place pour empêcher que le DSA ne devienne une arme au service des causes favorites de la Commission européenne, qu'il s'agisse de la guerre en Ukraine, de la vaccination, de la politique climatique ou d'une « guerre contre le terrorisme ». Le large pouvoir de déclarer un état d’urgence publique et d’exiger des plateformes qu’elles entreprennent des « évaluations » de leurs politiques en réponse à cela, combiné au large pouvoir discrétionnaire d’imposer des amendes aux plateformes en ligne pour « non-respect » d’« obligations de diligence raisonnable » par nature vagues, donnent La Commission dispose d’une grande marge de manœuvre pour dominer les plateformes en ligne et faire pression sur elles pour qu’elles fassent avancer son discours politique privilégié.

10. Un aspect particulièrement sournois de cette loi est que la Commission rend effectivement la désinformation illégale *par une porte dérobée*, pour ainsi dire. Au lieu de définir clairement ce qu’ils entendent par « désinformation » et de la rendre illégale – ce qui provoquerait probablement un tollé – ils imposent aux grandes plateformes en ligne comme Twitter et Facebook une exigence de « diligence raisonnable » pour qu’elles prennent des mesures discrétionnaires contre la désinformation et pour atténuer « risques systémiques » sur leurs plateformes (qui incluent le risque de « désinformation en matière de santé publique »). Vraisemblablement, les audits périodiques du respect de la loi par ces entreprises porteraient un regard négatif sur les politiques qui appliquent à peine les règles en matière de désinformation.

L'effet net de cette loi serait donc d'exercer une pression presque irrésistible sur les plateformes de médias sociaux pour qu'elles jouent le jeu de la « contre-désinformation » d'une manière qui satisferait les auditeurs de la Commission, et éviter ainsi de se voir infliger de lourdes amendes. Il existe beaucoup d’incertitude quant au degré de rigueur ou de laxisme de ces audits et aux types de non-conformité qui pourraient déclencher l’application de sanctions financières. Il est plutôt étrange qu’une réglementation juridique censée défendre la liberté d’expression place le sort de la liberté d’expression à la merci des jugements largement discrétionnaires et intrinsèquement imprévisibles de responsables non élus.

Le seul espoir est que ce projet de loi laid, compliqué et régressif se retrouve devant un juge qui comprend que la liberté d'expression ne signifie rien si elle est l'otage des opinions de la Commission européenne sur la préparation à une pandémie, la guerre entre la Russie et l'Ukraine, ou quoi que ce soit. est considéré comme un discours « offensant » ou « haineux ».

PS Considérez cette analyse comme une tentative préliminaire d'une personne non spécialisée en droit européen de s'attaquer aux implications troublantes de la loi sur les services numériques pour la liberté d'expression, sur la base d'une première lecture. J'apprécie les corrections et les commentaires des experts juridiques et de ceux qui ont eu la patience de parcourir la loi par eux-mêmes. Il s’agit de l’interprétation la plus détaillée et la plus rigoureuse que j’ai développée du DSA à ce jour. Il inclut des nuances importantes qui n'étaient pas incluses dans mes interprétations précédentes et corrige certaines interprétations erronées : en particulier, les plateformes ne sont pas légalement tenues de supprimer tous les contenus signalés, et les personnes qui signalent les contenus illégaux sont appelées « signaleurs de confiance », et non les personnes qui signalent les contenus illégaux. « vérificateurs de faits. »).

Réédité de l'auteur Sous-empilement



Publié sous un Licence internationale Creative Commons Attribution 4.0
Pour les réimpressions, veuillez rétablir le lien canonique vers l'original Institut Brownstone Article et auteur.

Auteur

  • David Tonnerre

    David Thunder est chercheur et maître de conférences à l'Institut pour la culture et la société de l'Université de Navarre à Pampelune, en Espagne, et récipiendaire de la prestigieuse bourse de recherche Ramón y Cajal (2017-2021, prolongée jusqu'en 2023), décernée par le gouvernement espagnol pour soutenir des activités de recherche exceptionnelles. Avant sa nomination à l'Université de Navarre, il a occupé plusieurs postes de recherche et d'enseignement aux États-Unis, notamment celui de professeur adjoint invité à Bucknell et Villanova et de chercheur postdoctoral au programme James Madison de l'Université de Princeton. Le Dr Thunder a obtenu son BA et MA en philosophie à l'University College Dublin, et son doctorat. en sciences politiques à l'Université de Notre Dame.

    Voir tous les messages

Faire un don aujourd'hui

Votre soutien financier à l'Institut Brownstone sert à soutenir des écrivains, des avocats, des scientifiques, des économistes et d'autres personnes courageuses qui ont été professionnellement purgées et déplacées pendant les bouleversements de notre époque. Vous pouvez aider à faire connaître la vérité grâce à leur travail continu.

Abonnez-vous à Brownstone pour plus de nouvelles

Restez informé avec le Brownstone Institute