Surcensure de contenus sur les réseaux sociaux
Question de :
M. Raphaël Gérard
Charente-Maritime (4e circonscription) - La République en Marche
M. Raphaël Gérard appelle l'attention de M. le garde des sceaux, ministre de la justice, sur le retrait abusif de contenus de la part des plateformes. À titre d'exemple, il observe que les comptes d'associations menant des actions de prévention en matière de santé sexuelle, en particulier dans le domaine de la lutte contre le VIH sida font l'objet de censure. Le compte « Paris sans sida » a ainsi été désactivé pendant plusieurs heures par Twitter. Ces décisions nuisent à la visibilité des campagnes de prévention lancées sur les réseaux sociaux, alors même qu'elles sont d'intérêt public. Dans le même temps, M. le député constate que les plateformes procèdent au retrait, sur la base de la violation de leurs conditions générales d'utilisation, de contenus qui relèvent soit de la liberté d'expression (campagne de sensibilisation féministe de PayeTonCouple relatant des témoignages de sexisme, de violences psychologiques et physiques dans les relations amoureuses ou sexuelles sur Facebook), soit de la liberté de création (la couverture du magazine Télérama mettant en scène Leila Barbara Butch), sans qu'aucun délit ne soit commis par les utilisateurs. La libre appréciation par les plateformes de la nature sensible de certains contenus qui respectent le droit en vigueur est ici problématique, car elle entrave la liberté d'expression artistique, culturelle et politique des utilisateurs. Dans ce contexte, il lui demande comment il envisage de traiter ce problème, dans le cadre des discussions menées avec les plateformes en matière de régulation des contenus illicites sur internet.
Réponse publiée le 29 mars 2022
Avec l'essor du numérique et des grandes plateformes, les réseaux sociaux sont devenus une enceinte privilégiée du partage de l'information, constituant des « espaces publics ». Cette dynamique s'est encore accentuée avec la crise sanitaire. Or cet « espace public » numérique est soumis aux règles d'utilisation édictées par les plateformes elles-mêmes dans leurs conditions générales, qui peuvent poser des interdictions allant bien au-delà de ce que prévoit la loi : ceci soulève de nouveaux enjeux de liberté d'expression, de pluralisme dans les opinions et de dialogue démocratique. Ainsi, en l'absence de cadre normatif adapté, les plateformes ont imposé des règles floues, changeantes et appliquées de façon opaque, ce qui a donné lieu à des censures arbitraires. Plus encore, elles utilisent des algorithmes de modération de contenus qui ne peuvent pas toujours évaluer de façon adéquate le contexte ou les subtilités de langage. Ces outils jouent sans nul doute un rôle utile, compte tenu du volume de contenus échangés, mais il n'est pas acceptable qu'ils soient appliqués sans aucun contrôle indépendant. La régulation de ces plateformes, médias d'un genre nouveau, est donc au cœur des enjeux du ministère de la culture, en charge également de la communication. Cette régulation doit poursuivre les mêmes objectifs d'intérêt général que pour les médias traditionnels : protéger les publics, lutter contre la désinformation, tout en veillant à préserver la liberté d'expression, afin de promouvoir un espace public numérique où les utilisateurs peuvent s'exprimer librement et débattre de façon saine et en sécurité. Le ministère de la culture est pleinement engagé en ce sens au niveau national comme au niveau européen, aux côtés du ministère de l'économie, des finances et de la relance, dans la négociation en cours à Bruxelles du projet de règlement européen sur les services numériques dit « Digital services Act » (DSA). Ce projet de texte vise à réguler ces acteurs afin de lutter plus efficacement contre les contenus illicites, mais aussi de préserver la liberté d'expression. Il s'agit de fournir un encadrement pérenne de la modération exercée par les plateformes à l'échelle européenne. Le texte combine : des obligations visant à lutter plus efficacement contre les contenus illicites (obligation en particulier pour les hébergeurs de mettre en place un mécanisme de signalement de ces contenus), une transparence accrue sur les règles appliquées et sur le processus de modération des plateformes (notamment sur les contenus légaux qu'elles choisissent d'interdire dans leurs conditions d'utilisation), un renforcement des droits des internautes (obligation pour les plateformes d'expliquer les raisons d'un retrait de contenu et de mettre en place des systèmes de recours pour les internautes, auprès de la plateforme ou auprès d'un tiers indépendant). Afin de protéger la liberté d'expression des utilisateurs de ces plateformes, le texte prévoit qu'elles sont tenues, lorsqu'elles appliquent leurs conditions générales, de respecter la charte des droits fondamentaux. En outre, en cas de recours d'un utilisateur dont le contenu aurait été bloqué ou supprimé, elles devront réexaminer leur décision de modération, selon un processus qui ne pourra pas être purement automatisé, mais devra faire intervenir un humain. Le projet de texte prévoit un système de gradation des obligations selon la taille et les caractéristiques des services. Les obligations les plus lourdes incombent aux très grandes plateformes et aux très grands moteurs de recherche (qui enregistrent plus de 45 millions de visiteurs mensuels dans l'Union européenne). Ces acteurs devront notamment procéder à une évaluation des risques systémiques posés par leurs services, y compris en matière de liberté d'expression, et mettre en place des mesures d'atténuation de ces risques, soumises à audit : par exemple, adapter leurs conditions d'utilisation, ou leurs dispositifs de modération automatisée ou humaine. Devraient relever de cette catégorie les très gros acteurs tels que Google Search, Youtube, Facebook, etc. Le respect de ces obligations sera contrôlé par un régulateur doté de pouvoirs de sanction dissuasifs (6 % du chiffre d'affaires annuel mondial). La négociation du DSA engagée il y a près d'un an avance à un rythme soutenu. Le Conseil et le Parlement européen ayant adopté leur version du texte en novembre 2021 et en janvier 2022, les négociations sont entrées en phase de trilogue. Dans le cadre de la présidence française de l'Union européenne au premier semestre 2022, le Gouvernement français est déterminé à faire avancer les négociations pour aboutir rapidement à un texte ambitieux. L'adoption de ce règlement devrait donc permettre à l'avenir d'éviter des situations de retrait unilatéral et opaque de contenus, nuisant à la liberté d'expression et de création des internautes. Toutefois, afin d'agir sans tarder au niveau national et sans attendre l'issue des négociations sur le DSA, le Parlement a adopté l'article 42 de la loi n° 2021-1109 du 24 août 2021 confortant le respect des principes de la République. Cet article, qui concerne spécifiquement la modération des contenus haineux illicites, s'inscrit pleinement dans l'approche proposée par la Commission européenne dans le DSA : des obligations systémiques, portant sur l'ensemble du dispositif de modération des contenus – à la fois sur son efficacité et sur les risques qu'il peut engendrer, notamment pour la liberté d'expression. Concrètement, il impose aux plateformes des obligations renforcées de transparence sur leurs règles de modération et les moyens qu'elles déploient à cet égard ; elles devront mettre en place des procédures efficaces de signalement des contenus haineux et de traitement de ces signalements, mais aussi des recours contre les décisions de modération ; l'article prévoit également des obligations supplémentaires pour les plus grandes plateformes : elles devront évaluer les risques systémiques posés par leurs services, tant en termes de dissémination de contenus haineux que d'atteintes à la liberté d'expression, et prendre des mesures pour y répondre. La supervision de toutes ces obligations est confiée à l'autorité de régulation de la communication audiovisuelle et numérique, dotée de pouvoirs de sanction (jusqu'à 6 % du chiffre d'affaires mondial). Il s'agit d'un dispositif temporaire, qui ne s'appliquera que jusqu'au 31 décembre 2023, et dont le futur DSA prendra le relais à son entrée en vigueur.
Auteur : M. Raphaël Gérard
Type de question : Question écrite
Rubrique : Internet
Ministère interrogé : Justice
Ministère répondant : Culture
Dates :
Question publiée le 24 novembre 2020
Réponse publiée le 29 mars 2022