À l’aune du Digital Services Act et de la responsabilisation des plateformes en ligne quant à leur politique de lutte contre la désinformation et les discours haineux, les déclarations du nouveau patron de Twitter et les coupes drastiques dans ses moyens de modération de contenu en ligne, inquiètent les instances européennes.

Depuis la prise de contrôle de Twitter par le milliardaire libertarien, Elon Musk, en octobre 2022, l’entreprise a annoncé plusieurs coupes dans ses effectifs, notamment le limogeage massif de 4400 prestataires, sur un total de 5500. Parmi les prestataires congédiés figurent les modérateurs de contenus du média en ligne, catégorie déjà considérée en sous-effectifs avec moins de 2000 agents pour le monde entier avant les congédiements).

Cette situation a fait tirer la sonnette d’alarme à l’Autorité publique française de régulation de la communication audiovisuelle et numérique (l’Arcom). Malgré les dires d’Elon Musk selon lesquels les discours haineux avaient diminué d’un tiers depuis son rachat de la plateforme, l’Arcom a rappelé à Twitter ses obligations légales en matière de contrôle des contenus en ligne. Le régulateur français a en particulier demandé à Twitter de lui déclarer rapidement quels étaient les moyens "humains et technologiques " consacrés à la lutte contre la désinformation. L’Arcom a jugé la réponse de Twitter très imprécise en soulignant le manque de transparence en matière de lutte contre la désinformation. Ainsi, l’autorité française a regretté une transparence "très relative concernant les données chiffrées" de la plateforme.

"L’Arcom est l’autorité dotée de pouvoirs de sanctions pouvant atteindre 6 % du chiffre d’affaires mondial de l’opérateur"

Au niveau européen, le commissaire au Marché intérieur, Thierry Breton, a exprimé ses inquiétudes au nouveau patron de Twitter lors d’un entretien concernant la mise en place du Digital Services Act (DSA).

M. Breton a mis en garde M. Elon Musk quant aux manquements au nouveau règlement et sur le fait que l’Union européenne (UE) n’hésitera pas à exercer son pouvoir de sanction. En filigrane, des valeurs antagonistes sont en présence.

Un besoin de modération des contenus en ligne

D’un côté, le "libertarien" Elon Musk érige la liberté d’expression en principe absolu, devant primer sur toute potentielle censure. De l’autre côté, l’UE prône la nécessité d’établir un environnement en ligne sûr dans lequel les personnes peuvent évoluer et s’exprimer librement dans la limite de tout abus qui compromettrait la liberté et la sécurité des autres. Dans ces conditions, la modération effective des contenus en ligne est nécessaire afin de lutter contre la désinformation qui présente un vrai danger pour nos systèmes démocratiques, mais aussi contre les discours haineux ou les menaces qui peuvent attenter à la sécurité des personnes. Le choix du législateur européen est de laisser la responsabilité de cette modération aux plateformes, dans le respect des exigences posées par la réglementation.

En France, le gouvernement a souhaité anticiper la transposition du DSA avec la loi du 24 août 2021 confortant le respect des principes de la République en son article 42. Cette loi impose aux plateformes ayant plus de 15 millions de visiteurs mensuels un socle d’obligations portant sur la coopération avec les services répressifs, la mise en place de dispositifs de notification et de répression des contenus haineux illicites ainsi que la transparence concernant la modération de ces contenus. L’Arcom est l’autorité dotée de pouvoirs de sanctions pouvant atteindre 6 % du chiffre d’affaires mondial de l’opérateur. Les obligations concernant la lutte contre la haine en ligne sont encore plus importantes pour les très grandes plateformes (évaluation des risques de dissémination de contenus haineux illicites ainsi que l’obligation de prendre des mesures pour lutter contre cette dissémination, tout en veillant à préserver la liberté d’expression). En Allemagne, la loi NetzDG promulguée en 2017 propose un régime de sanction à l’encontre des hébergeurs de réseaux sociaux avec des amendes pouvant aller de 5 à 50 millions d’euros. Ces deux lois resteront en application jusqu’à l’entrée en vigueur du DSA pour les très grandes plateformes dès début 2023.

Comment le DSA fait évoluer les règles

Un des fondements du DSA est de rendre illégal hors ligne ce qui est illégal en ligne. Les objectifs sont clairs : mieux protéger les internautes européens ainsi que leurs droits fondamentaux, mais aussi aider les petites entreprises européennes à se développer tout en responsabilisant les très grandes plateformes (TGP). En responsabilisant ces dernières, l’UE souhaite atténuer des risques systémiques, tels que la manipulation de l’information ou la désinformation. Le DSA permettra aux internautes de signaler plus facilement les contenus illicites et obligera les plateformes en ligne à coopérer avec des "signaleurs de confiance".

"Un des fondements du DSA est de rendre illégal hors ligne ce qui est illégal en ligne"

Les TGP devront aussi faire preuve de transparence en matière de modération des contenus avec notamment un système interne de traitement des réclamations mais aussi concernant leurs algorithmes publicitaires. Des "coordinateurs des services numériques" sont prévus pour faire respecter ces obligations dans tous les pays de l’UE (l’Arcom en France). En cas de non-respect de ces obligations, les coordinateurs ou bien la Commission européenne pourront infliger des amendes pouvant aller jusqu’à 6 % du chiffre d’affaires mondial des contrevenants. Le règlement est entré en vigueur le 16 novembre 2022 pour toutes les plateformes en ligne (sauf les plus petites). Les plateformes devront publier au plus tard le 17 février 2023 leur nombre d’utilisateurs mensuels actifs. Sur cette base, la Commission dressera la liste des TGP en présence qui seront soumises dès lors aux exigences spécifiques qui leur sont réservées par le DSA. Le DSA entrera en vigueur pour toutes les plateformes le 17 février 2024.

Une des difficultés d’application du nouveau règlement sera de contrôler la qualité de la modération tant dans ses défaillances que dans ses excès. Il conviendra d’éviter que les plateformes n’exercent une censure systématique par crainte de sanctions potentielles. Une censure dont plusieurs politiques français et étrangers ont fait les frais en voyant leurs comptes désactivés ou leurs publications supprimées. Pour éviter de pécher par excès inverse, il conviendra ainsi de réfléchir à instituer un contrôle sur les excès de modération, afin que le balancier de la modération n’aille pas trop loin et ne justifie les thèses libertariennes du nouveau patron de Twitter… Un délicat équilibre qui doit être trouvé dans le respect des valeurs européennes et dans la recherche de notre souveraineté numérique européenne.

SUR L’AUTEUR

Avocat pratiquant le droit des nouvelles technologies, fondateur et dirigeant du cabinet Pavléas Avocats, Constantin Pavléas est aussi coordinateur du programme Droit du Numérique & Propriété Intellectuelle et responsable d’enseignements à l’école des Hautes Études Appliquées du Droit (HEAD). Avec son équipe, il conseille des entreprises et organismes français et étrangers, notamment dans le secteur des technologies de l’information et plus généralement de l’innovation, sur leur stratégie en matière de propriété intellectuelle, de valorisation et d’exploitation de leurs actifs immatériels et de protection des données personnelles. Le cabinet assiste également ses clients dans la négociation de contrats complexes. Constantin intervient régulièrement en tant que spécialiste du droit des nouvelles technologies dans les médias (radio, télévision, journaux) ainsi que dans des conférences sur de nombreux thèmes concernant l’intelligence artificielle, l’emploi des nouvelles technologies dans le domaine médical, l’agriculture, et la numérisation de l’économie.