Compte rendu
Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs
– Audition, ouverte à la presse, de M. Laurent Marcangeli, ministre de l’action, de la fonction publique et de la simplification, ancien député 2
– Audition, ouverte à la presse, de Mme Clara Chappaz, ministre déléguée auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargée de l’intelligence artificielle et du numérique 11
– Audition, ouverte à la presse, de représentants de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) 28
– Présences en réunion................................44
Jeudi
19 juin 2025
Séance de 9 heures
Compte rendu n° 29
session ordinaire de 2024-2025
Présidence de
M. Arthur Delaporte,
Président de la commission
— 1 —
La séance est ouverte à neuf heures cinq.
La commission auditionne M. Laurent Marcangeli, ministre de l’action, de la fonction publique et de la simplification, ancien député.
M. le président Arthur Delaporte (SOC). Nous poursuivons nos auditions en accueillant M. Laurent Marcangeli, ministre de l’action publique, de la fonction publique et de la simplification, et ancien député, qui avait été à l’origine de la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne.
Merci d’avoir répondu à notre invitation. Votre audition est importante pour nous : il s’agit de réfléchir, d’une part, aux raisons qui vous ont conduit à proposer cette loi et, d’autre part, aux difficultés que l’on peut rencontrer pour appliquer de telles normes.
Nous recevrons à votre suite Mme Clara Chappaz, ministre chargée de l’intelligence artificielle et du numérique.
Au préalable, je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations. Enfin, l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité.
(M. Laurent Marcangeli prête serment.)
M. Laurent Marcangeli, ministre de l’action publique, de la fonction publique et de la simplification, ancien député. Je suis honoré d’être auditionné par votre commission d’enquête pour évoquer cette loi, sa genèse et son parcours.
Nombreux sont ceux qui surfent actuellement sur le sujet de la protection des mineurs sur les réseaux sociaux pour obtenir des likes faciles, sans vraiment s’investir ni proposer de solution réaliste. J’entends beaucoup les formules « y’a qu’à, faut qu’on » qui, comme je me suis intéressé à la question, m’irritent par leur absence de fond. Je suis donc très heureux que votre commission d’enquête parlementaire se saisisse du sujet.
Pour moi, ce n’est pas une affaire de communication opportuniste mais un combat très sérieux, que je mène depuis la campagne électorale de 2022 et ma réélection comme député. La protection de nos enfants n’est pas un trend TikTok mais une responsabilité au cœur de mon engagement politique depuis toujours. Ce qui importe, c’est que le sujet avance – ce qui est le cas – et que notre jeunesse soit enfin protégée face au laisser-faire et au laisser-aller de ces quinze années de montée en puissance des réseaux sociaux, qui n’ont que trop duré. Je souhaite aussi responsabiliser les parents, qui ont un immense rôle à jouer face au défi que représente la supervision de l’activité en ligne de leurs enfants.
Je suis auditionné en ma qualité d’ancien député et non en tant que ministre. Aussi, je n’aurai peut-être pas toutes les réponses à vos questions puisque je ne suis intervenu ni sur le volet technique de la loi ni sur sa mise en œuvre, vu que je n’étais pas membre du Gouvernement. La ministre Clara Chappaz pourra tout à l’heure présenter la position du Gouvernement actuel sur la régulation des plateformes au niveau technique, question à laquelle elle s’intéresse beaucoup.
Je me suis engagé personnellement pour la protection de la jeunesse dans l’espace numérique dès le début de mon mandat en 2022, en prenant l’initiative de la proposition de loi visant à instaurer la majorité numérique. C’était d’abord un engagement de campagne. En effet, dès 2022, je m’étais aperçu lors des réunions publiques que l’auditoire réagissait à mes propositions visant à mettre fin à l’impunité sur les réseaux sociaux et dans le monde numérique en général, dans la mesure où ceux-ci détruisaient nos générations futures. J’employais alors ces termes très forts et je n’ai aujourd’hui rien à y changer puisque je constate que la situation va de mal en pis.
À l’Assemblée nationale, j’ai travaillé avec un collaborateur pour élaborer une proposition de loi visant à instaurer une majorité numérique et à lutter contre la haine en ligne. Ce texte procédait donc d’une intuition personnelle et politique assez forte. Je suis aussi père et, même si mes enfants sont encore trop jeunes pour être présents sur les réseaux sociaux, je les surveille et je remarque des évolutions sociales qui peuvent faire peur. Ce débat mobilise d’ailleurs beaucoup de familles, comme l’ont montré les nombreux messages que j’ai reçus en m’emparant du sujet. C’est en outre un débat mondial, puisque d’autres pays sont concernés par cette réflexion.
J’ai ensuite échangé avec les associations spécialistes du sujet – l’Observatoire de la parentalité et de l’éducation numérique (Open), l’Union nationale des associations familiales (Unaf), e-Enfance – et même avec des philosophes. Je tiens à remercier une nouvelle fois M. Gaspard Koenig pour nos discussions. Aussi bizarre que cela puisse paraître – et alors qu’il est un des penseurs les plus libéraux de notre époque – il plaidait pour une interdiction pure et simple des réseaux sociaux aux moins de 18 ans. Il m’avait alors expliqué pourquoi ; je vous invite à consulter sur son blog le billet publié à ce sujet. Enfin, j’ai eu recours à des sources anglo-saxonnes, fiables, pour suppléer au manque de données scientifiques sur les répercussions psychologiques d’une surexposition aux réseaux sociaux. Le professeur américain Jonathan Haidt a en effet été précurseur dans la compilation des études et des recherches menées dans le monde entier sur le sujet.
J’ai très vite compris que nous faisions face à un double défi, à la fois de santé publique et de protection de l’enfance. La Commission nationale de l’informatique et des libertés (Cnil) a ainsi évoqué « une massification des usages numériques chez les enfants ». Vous connaissez ces chiffres édifiants qui établissent que 82 % des enfants de 10 à 14 ans se connectent aux réseaux sociaux sans encadrement parental, que plus de la moitié de cette tranche d’âge a déjà été présente sur les réseaux sociaux, que les enfants créent en France leur premier compte à l’âge de 8 ans et demi et que 70 % des enfants regardent seuls des vidéos en ligne. Vous connaissez également les risques de ces usages numériques : addiction, dépression, perte d’attention, perte de repères et inégalités accrues chez les plus jeunes. J’insiste sur le fait que les jeunes filles sont particulièrement exposées à certains risques, comme le revenge porn ou la dégradation de leur rapport à leur corps et à leur image.
Depuis 2023 s’est ajouté au risque de santé publique un risque de sécurité publique. Les débats sur ma proposition de loi étaient orientés sur la santé. Or cette loi a été définitivement adoptée le jour de l’affaire Nahel, jeune homme en mémoire duquel nous avions observé une minute de silence. Vous vous souvenez des jours et des semaines de violences qui ont suivi. Or l’utilisation des réseaux sociaux dans ces manifestations qui ont tourné à l’émeute avait été remarquée et est désormais incontestable. Le réseau Snapchat a ainsi servi pour fixer des lieux de rendez-vous en vue de piller des magasins et de détruire des bâtiments publics. Si le risque de santé publique demeure, il se double désormais d’un problème de sécurité publique et de vie démocratique de plus en plus important.
La proposition de loi visant à instaurer une majorité numérique et à lutter contre la haine en ligne a été déposée en janvier 2023. Elle a été adoptée le 2 mars à l’Assemblée nationale, lors de la niche parlementaire réservée au groupe Horizons que j’avais l’honneur de présider. Elle a été adoptée le 23 mai au Sénat avant d’être adoptée en commission mixte paritaire le 20 juin et promulguée le 7 juillet 2023. Ce processus parlementaire a été redoutablement efficace et rapide. Loin des polémiques stériles, il témoigne de l’importance du sujet. Les débats ont été simples et clairs, et certains votes unanimes. J’ai mené un travail de discussion, en commission comme dans l’hémicycle. C’était donc un travail parlementaire bien mené. Le texte n’a pas été bâclé et il a été adopté en quelques mois.
J’ai rencontré les grandes plateformes numériques, à l’exception notable de Google. Toutes ont dit la même chose : il leur était techniquement impossible d’appliquer la loi. Or c’est précisément parce que les géants du numérique sont passifs face aux alertes qui se multiplient que le législateur doit les réguler, même quand ils ne proposent pas de solutions techniques. Il ne s’agit pas de brider la liberté mais bien de déterminer des principes – ce que légiférer signifie. Le député n’est pas là pour mener des études techniques ni pour déterminer par quels moyens mettre en œuvre les lois, mais pour fixer les limites nécessaires à la vie en démocratie libérale.
Nous avons rencontré des difficultés dans l’application de ce texte à cause du décalage entre les temps parlementaires français et européen. Ces entraves sont progressivement levées. Je suis pour ma part décidé à aller toujours plus loin et j’espère que le gouvernement va le faire. L’application de la loi a été entravée non par une carence politique mais par une résistance européenne. Le commissaire européen Thierry Breton, dans un courrier daté du 14 août 2023, a d’abord indiqué que la loi n’était pas conforme au Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) dit Digital services act (DSA) au motif qu’elle fragmentait le marché unique. Sur ce point, et ce ne sont pourtant pas mes origines politiques, je repensais hier avec mes collaborateurs au slogan « nos vies valent mieux que leurs profits ». Or constater qu’une politique européenne privilégie l’économie et le développement des plateformes au détriment de la santé publique et de l’avenir de nos enfants, alors même que le problème est attesté, peut remettre en question les engagements les plus déterminés, comme le mien, au service de la poursuite de la construction européenne. Le Gouvernement a donc été un peu houspillé, en la personne de ma collègue Élisabeth Borne qui le dirigeait et était la destinatrice de ce courrier.
Il lui a aussi été reproché de ne pas avoir notifié ce texte à la Commission européenne trois mois avant son adoption. Cette règle, issue de la directive (UE) 2015/1535 du Parlement européen et du Conseil du 9 septembre 2015 prévoyant une procédure d’information dans le domaine des réglementations techniques et des règles relatives aux services de la société de l’information, ne tient pas compte de la procédure parlementaire française, qui permet à une proposition de loi d’être adoptée rapidement. En réalité, le fait qu’il s’agisse d’une proposition de loi a été un problème d’ordre technique empêchant sa notification à temps à la Commission européenne. Je rappelle que le Gouvernement n’a pas toujours la main sur le calendrier. La niche parlementaire en est le meilleur exemple puisque ce sont les groupes qui fixent librement l’ordre du jour. Or, s’il est simple pour le Gouvernement de notifier les projets de loi à la Commission européenne dans les délais imposés, il est aujourd’hui beaucoup plus complexe de respecter cette obligation pour les propositions de loi – alors même que celles-ci prennent une place prépondérante dans le fonctionnement de l’Assemblée depuis 2022, en raison de l’évolution de la situation politique.
La conséquence est grave : la loi est purement et simplement inapplicable, quand bien même elle a été votée à l’unanimité – ce qui donne une image d’impuissance publique qui nous dessert tous, gouvernements ou parlementaires. L’effet est donc dévastateur.
Toutefois, je ne veux pas être exclusivement négatif ou critique. Les choses bougent dans le bon sens. La prise de conscience est de plus en plus forte. La Commission européenne travaille sur une solution technique de vérification de la majorité d’ici juillet, solution qui sera elle-même renforcée par le déploiement prévu à l’été 2026 du portefeuille européen d’identité numérique. Dans cette dynamique, plusieurs pays rejoignent la position de la France, comme l’a relevé ma collègue Clara Chappaz en réponse à M. Vojetta lors des questions au gouvernement la semaine dernière. L’Irlande elle-même, principale hébergeuse des grandes plateformes en Europe, serait prête à nous rejoindre dans ce combat.
L’Europe est donc en train d’évoluer vers la position française. Je regrette toutefois que, malgré ces avancées, la Commission européenne persiste à exprimer des réserves sur le principe de majorité numérique, ce qu’a fait récemment la commissaire Henna Virkkunen. In fine, il me parait souhaitable d’instaurer la majorité numérique au niveau européen, avec une période de tolérance de la part des instances européennes, le temps que chaque État l’introduise dans son droit national.
Je tire de cette expérience la conviction renouvelée que la technique doit emboîter le pas au politique. Nous ne devons pas cesser d’agir pour des raisons techniques évoquées par les plateformes. Notre rôle est de fixer les évolutions vers laquelle la technique doit tendre. Notre rôle n’est pas d’écrire des lignes de code ou des algorithmes, mais d’énoncer ce qui est juste et nécessaire. Si l’on attend que la technologie soit parfaite pour agir, nous ne le ferons jamais. Nous devons affirmer que l’on peut utiliser les réseaux sociaux à partir de quinze ans, mais qu’avant cet âge l’accord des parents est nécessaire. Des solutions techniques existent : les opérateurs mobiles français pourraient par exemple proposer des dispositifs permettant de prouver son identité, et ils ne sont pas les seuls car de nombreuses entreprises pourraient aussi proposer des solutions souveraines respectueuses de la vie privée.
Mon texte est la première pierre d’une construction, afin d’entraîner la France et l’Europe. Telle était sa vocation. En définitive, il s’agissait d’une certaine manière d’un texte lanceur d’alerte. Celui-ci n’est bien sûr pas parfait. Aucune régulation ne l’est et je n’ai jamais eu la prétention de détenir à moi seul la vérité. Il faut poursuivre en construisant un édifice encore plus ambitieux, car il reste beaucoup d’autres sujets à traiter après celui de l’exposition aux réseaux sociaux. Il faut donc encore mener des actions, tant au niveau français qu’européen. Je me suis d’ailleurs réjoui de la récente position du président de la République, car son poids peut être décisif à l’échelle européenne.
La Commission semble encore un peu embarrassée par ce sujet. Il faut nous réjouir d’avoir engagé, avec l’adoption de cette loi, un combat à l’échelle européenne. Nombreux sont ceux qui nous emboîtent le pas. J’ai rencontré Markus Richter, secrétaire d’État allemand en charge du numérique ; j’ai reçu, lorsque j’étais président de mon groupe, une délégation de parlementaires britanniques qui voulaient s’inspirer de ma loi ; des prises de contact sont même venues d’Italie. Nous devons aller vers cette coopération européenne.
Enfin, monsieur le président, je me réjouis que le Gouvernement vous ait confié, avec le député Stéphane Vojetta, une mission pour prolonger les travaux que vous aviez menés ensemble.
M. le président Arthur Delaporte. Vos propos font en effet écho aux parcours de la proposition de loi visant à lutter contre les arnaques et les dérives des influenceurs sur les réseaux sociaux, déposée en janvier 2023 et votée le 9 juin 2023. En six mois, nous avons réussi à franchir toutes les étapes de la procédure législative, alors qu’elle peut parfois prendre plusieurs années lorsqu’il s’agit d’une initiative parlementaire. Cela montre bien la conscience au sein du Parlement de la nécessité d’avancer sur ces sujets.
La loi dite influenceurs était également mentionnée dans la lettre du commissaire européen Thierry Breton, suscitant les mêmes interrogations sur la procédure de notification et les mêmes sentiments d’impuissance. Nous avons aussi ressenti le besoin de faire avancer ces sujets aux échelles nationale et européenne, puisque les arguments de santé et d’ordre publics ne peuvent se voir opposer les principes du marché unique – qui ne sont ni sacro-saints, ni absolus et contre lesquels nous devons continuer de lutter.
Mme Laure Miller, rapporteure. Merci d’être venu témoigner et de nous avoir rappelé ce processus législatif. Avez-vous eu des contacts avec des institutions européennes pendant l’élaboration de votre proposition de loi et son examen parlementaire ? Vous saviez en effet que le droit européen prévalait.
Par ailleurs, à la suite du courrier de Thierry Breton, avez-vous eu des échanges, formels ou informels, avec la Commission européenne ?
M. Laurent Marcangeli. Il est vrai que je ne l’ignorais pas.
Notre calendrier parlementaire concordait avec celui de certaines directives européennes proposées par M. Breton. Je n’étais à l’époque en contact qu’avec le ministre des affaires étrangères actuel, alors ministre du numérique, qui essayait de m’informer en temps réel de ce que l’Europe était en train de réaliser. La loi n° 2024-449 du 21 mai 2024 visant à sécuriser et réguler l’espace numérique (dite loi Sren) a ensuite transposé le règlement sur les services numériques.
Je n’ai pas eu de contact direct avec la Commission européenne et celle-ci s’est contentée de prévenir le gouvernement. Pour être complet, il était envisagé dans la loi n° 2024‑364 22 avril 2024 portant diverses dispositions d’adaptation au droit de l’Union européenne en matière d’économie, de finances, de transition écologique, de droit pénal, de droit social et en matière agricole, dite loi Ddadue, d’essayer de permettre l’application de mon texte. Le gouvernement a ensuite changé en janvier 2024. Lors des élections européennes, le programme du groupe Renew Europe a repris nos propositions, et certains députés m’ont fait savoir qu’ils étaient disponibles pour mener ce combat.
Mme Laure Miller, rapporteure. Quelles sont les raisons qui vous avaient conduit à proposer de fixer l’âge de la majorité numérique à 15 ans ?
M. Laurent Marcangeli. Le choix de l’âge a été l’objet de débats, y compris dans l’hémicycle.
Il est aujourd’hui particulièrement choquant que les enfants soient exposés aux réseaux sociaux autour de 8 ou 9 ans. Leur usage est normalement interdit avant 13 ans, et il est scandaleux que des petits enfants soient exposés sans surveillance à des contenus particulièrement violents. La limite des 13 ans doit être respectée. Après réflexion, il m’a semblé que l’âge de 15 ans, qui correspond normalement à l’entrée au lycée et à celui de la majorité sexuelle, était un palier intéressant. Ce choix a fait débat : certains amendements, en commission comme dans l’hémicycle, proposaient plutôt de retenir l’âge de 16 ans. Je vois que notre choix est désormais repris dans d’autres pays.
Mme Laure Miller, rapporteure. L’idée selon laquelle les parents devaient donner leur autorisation pour leurs enfants entre 13 et 15 ans avait également suscité un débat. Pourriez‑vous nous en rappeler les termes ? Je me souviens que ce sujet avait préoccupé ma collègue Sarah Tanzilli. Pourquoi cette tranche d’âge ?
M. Laurent Marcangeli. Je ne voulais pas que le texte exonère les parents de leur responsabilité. Il est en effet absolument nécessaire de les responsabiliser. Ce texte lanceur d’alerte, le débat public actuel, l’existence de votre commission et les différentes prises de position politiques doivent faire comprendre aux parents ce qui est en train de se jouer. Il y a quelques années, regarder de la pornographie n’était pas facile. Désormais, le gamin de 13 ans qui participe au déjeuner de famille du dimanche est peut-être en train d’en regarder juste à côté de vous. C’est un signe d’impuissance publique, mais aussi d’impuissance parentale. Je voulais donc que les parents soient associés en ayant la possibilité de donner une autorisation. La plateforme doit ainsi recueillir l’accord de l’un des parents ou du dépositaire de l’autorité parentale pour que le jeune homme ou la jeune fille puisse accéder au réseau social. Il faut accessoirement que le parent vérifie ensuite ce qu’il se passe. Je voulais que le dispositif soit aussi un dispositif de responsabilité parentale.
Mme Laure Miller, rapporteure. En ce qui concerne cette dernière, on constate que le débat s’amplifie et touche un très grand public. Dans tous les foyers français, on s’interroge et on se forge son avis. Je constate dans les commentaires sur les vidéos que nous publions sur les réseaux sociaux qu’il existe un débat entre les Français pour savoir si la faute revient aux plateformes, à l’État ou aux parents.
Diriez-vous que la sensibilisation n’est pas assez développée dans notre pays, à la fois auprès des parents et des enfants ? Aviez-vous pensé, à l’époque, développer la sensibilisation au numérique et aux réseaux sociaux dans les écoles et chez les parents ?
M. Laurent Marcangeli. J’ai souvent rappelé que nous étions face à une question d’ordre civilisationnel. Lorsque l’on parle de civilisation, le rôle des parents est essentiel puisque ceux-ci nous guident du début de notre vie à l’âge adulte en nous transmettant des principes et des valeurs.
Il peut exister chez certains un déni coupable qui consiste à ne pas vouloir voir que leur enfant va mal, ce que l’on lit souvent lorsque des drames se produisent. Les parents ont soupçonné qu’il y avait un problème, constaté que leur enfant était un peu renfermé, mais ne pensaient pas qu’il irait jusqu’à se suicider. Mais il s’agit parfois d’une simple méconnaissance.
Il faut que les parents soient informés. C’est pour cela que la puissance publique doit s’engager, notamment dans le domaine éducatif, et ce de manière très vigoureuse.
Je me fais beaucoup de souci pour l’avenir. Votre commission enquête s’intéresse particulièrement au réseau TikTok, qui a une dimension géopolitique non négligeable. Je suis de ceux qui pensent qu’il existe une volonté de rendre des générations entières de femmes et d’hommes complètement démunies dans la compétition mondiale et dans le rapport à d’autres grandes puissances, et que l’Europe est en train de s’avachir.
L’idée est donc de permettre aux parents, qui doivent être au centre du jeu, de stopper la descente aux enfers qui est en train de se produire avec les réseaux sociaux.
Mme Laure Miller, rapporteure. S’agissant de cet enjeu géopolitique – et notamment du rôle de la Chine – que pensez-vous de l’application du DSA ?
Avec le président de la commission, nous nous sommes rendus récemment à Bruxelles pour comprendre où en était la mise en œuvre de ce règlement. J’ai d’ailleurs reçu hier un SMS de la part d’une élue locale qui disait avoir entendu parler du DSA mais qu’il n’était pas appliqué. On se rend bien compte que, sauf à se plonger dans l’évolution et la mise en œuvre concrètes de ce cadre législatif, tout semble très long.
M. Laurent Marcangeli. Tout d’abord, le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE, dit règlement général sur la protection des données (RGPD) est sous-appliqué pour les mineurs. Quant au DSA, il comporte des obligations de moyens concernant la modération et la transparence mais, sur le fond, il reste timide. Il ne fait à aucun moment référence à la santé publique et passe donc selon moi à côté de l’essentiel.
Ces textes, comme la longueur des procédures, sont une ode à l’impuissance publique – et je pèse mes mots. La procédure contre TikTok a mis plus d’un an pour aboutir à des constats préliminaires. Il faut sortir de cette logique technocratique et bureaucratique. S’agissant du numérique, on parle d’un marché très différent des autres et non d’une industrie comme l’industrie textile. Enfin, le pire est que le principal aspect du DSA depuis son lancement a été d’empêcher qu’une législation nationale soit mieux-disante. C’est inacceptable car il ne propose aucun dispositif opérationnel pour protéger les mineurs. Comme le montre le courrier précité de la Commission européenne, si un État membre adopte une loi, il se fait réprimander sous prétexte que celle-ci va au-delà du DSA. J’ai donc une position très critique.
M. le président Arthur Delaporte. La Commission européenne et les services de la DG Connect expliquent qu’ils ont besoin de temps pour recueillir des constats solides face à d’importants risques juridiques, dans la mesure où les plateformes contestent généralement les sanctions qui leur sont imposées. La Data Protection Commission, équivalent de la Cnil en Irlande, qui voit ses décisions contestées à l’échelle européenne, dit de la même manière vouloir la procédure la plus solide pour être en mesure d’aller si besoin jusque devant les plus hautes juridictions européennes. Voilà ce qu’on nous dit pour expliquer ce temps long.
Nous en parlerons certainement tout à l’heure avec les représentants de la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). En effet, même en droit national, quand des procédures prennent du temps – notamment pour sanctionner les influenceurs dont on voit pourtant manifestement qu’ils produisent des contenus illicites –, on nous répond qu’il faut recueillir des éléments de preuve pour pouvoir appliquer des sanctions. D’une certaine manière, c’est l’État de droit. Que répondez-vous à cela ?
M. Laurent Marcangeli. Je réponds que dans ce cas il ne faut pas proclamer que le DSA est en vigueur et qu’il vaut mieux appliquer une période de tolérance. L’Union européenne devrait desserrer un peu l’étau sur les nations qui ont envie d’avancer.
Ceux qui disent qu’ils n’ont pas le temps ou qu’il leur faut du temps tiennent un discours purement technocratique, qui vise à enterrer le sujet et à mettre la poussière sous le tapis. Je ne suis pas complotiste, je suis en règle générale quelqu’un de très mesuré, mais je sais que ces plateformes font peur car ce sont des géants économiques. Dans l’histoire, des exemples ont toutefois montré, aux États-Unis ou ailleurs, que la volonté politique permet de réaffirmer au monde économique que c’est le politique qui détermine la marche et l’économique qui la subit, car l’économique n’a pas à faire la loi et à empêcher le politique d’avancer. Il serait bien que telle soit la situation.
Je rappelle que nous avons eu l’exemple d’une interdiction temporaire de TikTok en Nouvelle-Calédonie, même si celle-ci a ensuite été cassée. Il faut aussi regarder ce qu’il se passe ailleurs, notamment quand on observe ce que la Chine est capable de faire en matière de régulation des réseaux sociaux – même si ce n’est pas une démocratie. Selon moi, répondre qu’il faut du temps équivaut à dire qu’on verra.
M. Stéphane Vojetta (EPR). Vos propos nous ramènent à une bataille parallèle à la vôtre, celle de la loi influenceurs. Nous avions pu résister à l’époque, avec le soutien du Gouvernement, aux injonctions du commissaire européen Thierry Breton et de la Commission européenne – très similaires à celles qui vous ont été adressées – visant à modifier substantiellement la loi, à la simplifier, voire à l’abroger pour aller dans leur sens. Nous avions résisté, notre loi a été appliquée, elle est devenue comme la vôtre une source d’inspiration à l’étranger et a été reprise dans de nombreux pays européens – ce dont nous nous félicitons.
Cela confirme la nécessité d’être volontariste sur ce sujet important. Vous avez rappelé les données confirmant cette catastrophe éducative et sanitaire. Même si vous avez repris un slogan plutôt associé à la gauche, nous sommes vous et moi des libéraux qui défendons la liberté, notamment économique, sous toutes ses formes. Mais nous ne défendons certainement pas la liberté de voir nos enfants se faire déglinguer génération après génération. C’est la raison pour laquelle il faut agir.
Comme vous, et tout en étant très pro-européen, je suis préoccupé par le fait que nous ayons cédé nos prérogatives de régulation des grandes plateformes à Bruxelles. Or, si nous l’avons fait, c’est pour voir Bruxelles agir, pas pour la voir organiser notre impuissance. En cela l’audition de M. Breton il y a quelques semaines n’a pas été entièrement satisfaisante. En tant qu’ancien commissaire, il nous a enjoint à agir et à prendre des initiatives pour tenter de peser sur les choix de Bruxelles. Mais à l’époque où il était commissaire, il a fait tout le contraire de ce à quoi il nous invite désormais.
Ma question concerne le projet de loi Ddadue voté il y a un an et dont j’étais rapporteur. Nous avions réussi à modifier la loi pour que soit réduit de six à trois mois le délai laissé au Gouvernement pour remettre au Parlement un rapport sur les mesures d’adaptation requises par la Commission européenne concernant votre loi. Avez-vous connaissance de ce rapport ? A‑t‑il été remis par le Gouvernement ? Si vous en avez connaissance, quelles sont ses conclusions ?
Je vous invite par ailleurs à vous joindre à nous, à votre collègue Clara Chappaz et à d’autres, pour être à l’avant-garde de ceux qui créeront, s’il le faut, un rapport de force avec la Commission européenne. Il s’agit de la contraindre à agir dans le sens désiré par une majorité des pays européens – et qui correspond en France à une attente populaire – afin de fixer une majorité numérique, voire d’interdire les réseaux sociaux aux moins de 15 ans.
M. Laurent Marcangeli. J’ai bien sûr connaissance de ce rapport, dont ma collègue Clara Chappaz vous présentera des éléments lors de son audition.
Mme Laure Miller, rapporteure. La semaine dernière, nous avons auditionné les dirigeants des plateformes, en particulier ceux de TikTok. Nous avons le sentiment qu’ils se renvoient la balle sur la vérification de l’âge en appelant à grands coup de publicité à une réglementation européenne. Les dirigeantes de TikTok avouaient elles-mêmes qu’elles disposaient déjà des moyens techniques pour procéder à cette vérification mais qu’elles préféraient attendre que toutes les plateformes le fassent simultanément. Avez-vous le même sentiment ?
M. Laurent Marcangeli. Tout cela relève de la tartufferie. Ces géants ont les capacités techniques et technologiques d’assurer un contrôle. Plus personne ne peut croire le contraire. En réalité, il existe un marché qui repose entre autres sur nos enfants qui, pour les grandes entreprises, sont des acteurs économiques. Il ne faut pas laisser ces entreprises déterminer leur champ d’action, car elles seront toujours orientées avant tout vers la rentabilité économique. Le politique doit donc reprendre la main.
C’est d’ailleurs un débat mondial, comme le montrent certaines décisions annoncées en Australie. Mais il ne faut pas oublier que le temps joue contre nous. Pendant que nous parlons, combien d’enfants en France et dans le monde sont, à bas bruit, en train de regarder un contenu pornographique ou choquant sur un réseau social qui crée leur algorithme ? Combien sont en train de s’abrutir ? Si nous avions les chiffres réels, nous rentrerions tous chez nous la boule au ventre.
M. Stéphane Vojetta (EPR). Nous rencontrons à Paris les acteurs du numérique et les responsables des affaires publiques des grandes plateformes. Toutefois, je constate – ce qui m’a été confirmé par certains d’entre eux – que l’immense majorité de leurs budgets de lobbying n’est pas dépensée à Paris ou en Irlande, mais à Bruxelles, ce qui pèse sur la lenteur des procédures européennes et explique la « tartufferie » que vous décrivez. Les plateformes comme TikTok se réfugient effectivement derrière l’inaction européenne et l’absence de règles claires pour ne pas être les premières à intervenir.
Elles sont en effet engagées dans une guerre pour les parts de marché et savent bien qu’en captant des utilisateurs de 9, 10 ou 11 ans et en les fidélisant, elles assurent leurs futures parts puisque, d’ici cinq ou dix ans, ces jeunes adultes seront en mesure de dépenser leur argent sur les plateformes de commerce – celles de TikTok par exemple. C’est parfaitement logique de la part de ces acteurs économiques, mais c’est une logique qu’on ne peut accepter. Il en va de notre responsabilité politique de les contraindre et je tiens à vous remercier d’avoir fait un premier pas dans ce sens.
M. le président Arthur Delaporte. On comprend bien l’intérêt d’une interdiction des réseaux sociaux en-dessous de 15 ans, même si nos auditions ont montré que tout le monde ne partageait pas cette idée. Je suis plutôt favorable à interdire cet accès en-dessous de 13 ans et à prévoir un usage contrôlé entre 13 et 15 ans, comme dans votre loi – cette progressivité des premiers usages des réseaux sociaux me semble intéressante. Ce n’est pas exactement ce que proposent le président de la République et la ministre du numérique.
Par-delà ces nuances – et vous dénoncez vous-même le côté démagogique d’annonces concernant la protection des mineurs sans qu’elles soient suivies d’effets –, le risque d’une telle interdiction n’est-il pas de rendre le politique impuissant ou de donner le sentiment de son impuissance ?
M. Laurent Marcangeli. Cette mesure, c’est tout le sens de ma loi. J’ai souhaité formuler une proposition qui tienne la route compte tenu de l’époque dans laquelle nous vivons. Si nous voulions tout interdire, ce ne serait pas réalisable. Je vous le répète avec toute ma conviction, et même une forme de désolation car, selon moi, certaines plateformes devraient tout bonnement être supprimées du paysage.
J’ai donc souhaité être réaliste et progressif, notamment pour cette fameuse période entre 13 et 15 ans, capitale, au cours de laquelle la présence du parent ou du responsable légal aux côtés de l’enfant a du sens. Selon moi, interdire purement et simplement n’aurait pas un aussi bon effet que le dispositif que j’ai proposé.
M. le président Arthur Delaporte. Est-ce finalement parce que l’interdit est contourné quand on a entre 13 et 15 ans ?
M. Laurent Marcangeli. C’est une question d’état d’esprit. Avec une régulation intelligente et un bon contrôle parental, il est possible d’avoir entre 13 et 15 ans suffisamment de maturité pour naviguer sur les réseaux sociaux, quoiqu’avec modération. Je fais partie de ceux qui continuent d’espérer. Interdire purement et simplement peut créer l’effet indésirable inverse : que l’adolescent cherche par tous les moyens à y accéder avant 15 ans précisément parce que c’est interdit car, à cet âge, aller à l’encontre de l’interdit est particulièrement recherché.
M. le président Arthur Delaporte. Permettez-moi de vous remercier pour votre participation et pour les combats que vous avez menés sur ce sujet d’importance, dont notre commission s’est saisie et à propos duquel le Parlement aura encore beaucoup à faire dans les mois à venir.
Puis la commission auditionne Mme Clara Chappaz, ministre déléguée auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargée de l’intelligence artificielle et du numérique.
M. le président Arthur Delaporte. Madame la ministre, je vous remercie de prendre le temps de répondre à notre invitation.
Votre audition est importante pour la commission tant la régulation des réseaux sociaux occupe votre agenda et préoccupe le Parlement. Elle est l’occasion d’évoquer les initiatives du Gouvernement et les relations parfois compliquées avec l’Union européenne – la rapporteure et moi-même avons rencontré à Bruxelles le 4 juin la DG Connect (direction générale des réseaux de communication, du contenu et des technologies), des membres du Parlement européen ainsi que des représentants de la Cnil (Commission nationale de l’informatique et des libertés) irlandaise. Mais nous attendons surtout des solutions.
Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.
Je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires, impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité.
(Mme Clara Chappaz prête serment.)
Mme Clara Chappaz, ministre déléguée chargée de l’intelligence artificielle et du numérique. Je tiens à saluer le choix salutaire de l’Assemblée nationale d’avoir créé cette commission d’enquête, à votre initiative, madame la rapporteure. Vous vous emparez avec sérieux et lucidité d’un enjeu crucial de notre temps : l’impact des réseaux sociaux sur les mineurs. Il ne s’agit pas d’un simple fait de société, ni d’une inquiétude passagère, mais d’une question vitale pour notre jeunesse, pour laquelle les interactions avec le monde se déroulent principalement par le biais des écrans – elle y passe plus de quatre heures par jour.
Vous le savez, le sujet me tient particulièrement à cœur. Depuis ma nomination, j’ai engagé un combat déterminé pour l’interdiction de l’accès aux réseaux sociaux avant l’âge de 15 ans, combat en droite ligne avec les priorités du président de la République et les recommandations du rapport de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans, plus communément appelée commission « Enfants et écrans ».
Ministre chargée du numérique, je ne veux pas en dresser un tableau complètement noir. Je sais mieux que personne à quel point les outils numériques et les réseaux sociaux sont de formidables espaces d’opportunités, de liberté, de créativité, d’apprentissage et d’émancipation. Qui n’a pas fait l’expérience heureuse de retrouver un ami de longue date sur les réseaux ou de découvrir une information ?
Cela ne doit pas nous empêcher de regarder lucidement les dérives et d’y remédier. Celles-ci sont massives et documentées ; elles ont des conséquences concrètes sur la vie de nos enfants. Un consensus scientifique solide émerge selon lequel l’exposition précoce et intensive aux réseaux sociaux chez les adolescents, notamment entre 8 et 15 ans, est associée à des troubles du sommeil, des troubles alimentaires, une augmentation des comportements à risque, un enfermement dans des bulles algorithmiques et une détérioration nette de la santé mentale. Comment justifier qu’un enfant sur quatre dise ressentir de l’anxiété sur les réseaux sociaux, pire, qu’un enfant sur cinq se réveille la nuit pour vérifier ses réseaux sociaux ?
De premières études montrent que le temps passé sur les réseaux et ses conséquences sur le développement cognitif et émotionnel des adolescents pourraient nous coûter d’un à deux points de PIB dans l’avenir.
C’est un enjeu majeur de santé mentale ; c’est un enjeu majeur de société. Nous en avons toutes et tous fait l’expérience, les plateformes peuvent amplifier la dévalorisation de l’image de soi, favoriser les phénomènes de harcèlement, exposer à des contenus violents ou pornographiques, encourager des pratiques qui vont jusqu’à l’automutilation. Il suffit de tendre l’oreille aux familles, aux médecins et aux enseignants. Il suffit d’écouter les jeunes eux‑mêmes, qui se disent souvent pris dans un tourbillon numérique dont ils ne maîtrisent plus les codes.
Pourtant, les chiffres sont implacables : près de trois enfants sur quatre âgés de moins de 13 ans sont déjà sur une plateforme au moins, quand bien même les conditions générales d’utilisation de celle-ci interdisent l’accès aux utilisateurs de cet âge. J’entends le désarroi des familles confrontées à la difficulté de poser un cadre en l’absence de repères clairs. J’entends le désarroi des enfants, qui ne veulent pas être exclus de cet espace numérique devenu espace de sociabilité, quand bien même ils sont conscients de son potentiel impact négatif sur leur santé. J’entends la demande forte d’action de la part des pouvoirs publics. J’ai donc engagé une action déterminée pour y répondre car, je le dis très clairement, ce n’est ni aux enfants, ni aux parents de porter seuls cette responsabilité.
Je veux saluer l’engagement constant des associations, en particulier celui des signaleurs de confiance comme e-Enfance et Point de contact, avec lesquels je travaille étroitement. Ils jouent un rôle d’alerte et d’accompagnement indispensable. Je veux aussi saluer les initiatives parlementaires – et elles sont nombreuses –, qui permettent toutes de nourrir la réflexion et la politique du Gouvernement en France et au niveau européen.
Je porte un message qui ne varie pas : avant 15 ans, les réseaux sociaux, c’est non. Ce n’est pas une posture, ni un symbole, c’est une mesure éducative de prévention, de protection, de bon sens. Je m’inscris dans la continuité de la loi adoptée à l’unanimité, à l’initiative du député Laurent Marcangeli, visant à instaurer une majorité numérique, celle-ci étant fixée à 15 ans. Nous le savons ici toutes et tous, cette avancée importante restera théorique si elle ne s’accompagne pas d’une véritable vérification de l’âge sur les réseaux sociaux, vérification dont le cadre devrait idéalement être européen. Nous avons tous été des enfants, nous ne savons que trop bien que lorsqu’il suffit de changer la date de son année de naissance pour s’inscrire sur un réseau, la tentation est grande. Il ne peut y avoir d’interdiction des réseaux sociaux sans vérification de l’âge. C’est donc cette bataille que nous menons avec fermeté.
Lorsque je vois Instagram dépenser des millions d’euros pour faire de la publicité dans nos gares, métros, titres de presse, ou à la radio pour demander une vérification d’âge à l’échelle de l’Union européenne, je me dis qu’une entreprise du numérique américaine qui demande de la régulation, c’est une première, mais aussi que les réseaux sociaux doivent assumer leurs responsabilités. En effet, lorsqu’ils demandent que la vérification soit opérée par les magasins d’applications (App Store), ils ne sont pas à la hauteur des enjeux. Il faut absolument sortir du ping-pong par lequel les acteurs se renvoient la balle constamment. Je l’avais d’ailleurs dénoncé dès le mois de janvier lorsque j’avais réuni tous les acteurs – plateformes, App Store, associations, réseaux de téléphone – pour faire le point sur les actions mises en place.
Je veux le dire clairement, les technologies existent, les solutions sont là : nous en avons recensé une quinzaine, développées par des entreprises françaises ou européennes. Elles permettent de vérifier l’âge de l’utilisateur sans identifier une personne, sans compromettre les données personnelles. C’est un impératif important sur lequel nous ne céderons pas et sur lequel nous avançons au niveau européen. La France sera d’ailleurs l’un des pays pilotes pour expérimenter la solution harmonisée qui se dessine.
Si d’aventure ces solutions ne convenaient pas aux plateformes, ces entreprises comptent parmi les meilleurs ingénieurs du monde. Je ne peux croire qu’ils ne sont pas capables de résoudre ce problème. Google y travaille d’ailleurs activement, ils m’en ont fait la démonstration.
Notre devoir est désormais d’imposer les solutions de vérification d’âge comme un standard et non de les laisser à l’appréciation de tel ou tel, et encore moins de permettre aux acteurs de se renvoyer la balle pour savoir à qui incombe la responsabilité.
C’est ce que nous faisons à l’échelle nationale mais aussi et surtout européenne car la régulation du numérique ne peut s’arrêter aux frontières nationales. Dès 2022, sous la présidence française du Conseil de l’Union européenne, nous avons défendu avec détermination le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA), qui constitue une avancée majeure. Le texte ne considère plus les plateformes comme de simples hébergeurs techniques – c’est très important – ; il leur impose un devoir de vigilance notamment en matière de protection des mineurs et de santé mentale. C’est un texte très ambitieux, certainement le plus ambitieux du monde, mais nous devons maintenant en exploiter toutes les potentialités. Le DSA ne doit pas rester une promesse, il doit devenir une réalité.
C’est tout le sens des discussions actuelles sur l’article 28, consacré aux mineurs, dont nous souhaitons renforcer la portée en rendant obligatoire la vérification de l’âge pour accéder aux réseaux sociaux. Il s’agit bien d’une mesure « appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs » pour reprendre les mots du DSA. Je l’ai dit à la Commission européenne, je l’ai d’ailleurs fait inscrire à l’ordre du jour du dernier conseil des ministres chargés du numérique, au sein duquel une demi-douzaine de pays ont suivi notre position. Nous le redirons ensemble dans les jours qui viennent, aux côtés de nos collègues ministres chargés de l’éducation et de la santé – c’est une première. Aujourd’hui treize États membres se sont ralliés à notre position. Il faut le réaffirmer haut et fort, l’Europe, forte de ses 450 millions de citoyens, pèse face aux géants du numérique. Les Européens assument leur responsabilité. Je ne lâcherai donc rien pour faire appliquer pleinement le DSA. Si nous n’y parvenons pas, alors, je le dis sans détour, nous prendrons des mesures à l’échelle nationale, comme nous l’avons déjà fait sur d’autres dossiers.
En parallèle, nous agissons concrètement. Lorsque nous avons alerté sur les contenus associés au hashtag #SkinnyTok, nous avons obtenu des résultats. Des ajustements ont été apportés, des contenus et des hashtags ont été retirés, mais soyons lucides, ce n’est pas parfait et cela ne peut pas être un modèle pérenne. Une stratégie de régulation ne peut pas reposer sur l’indignation, l’émotion et la pression ponctuelle. Faut-il vraiment qu’une ministre de la République se déplace à Dublin à chaque fois qu’un contenu dangereux apparaît sur une plateforme ? Bien sûr que non. Nous avons posé des règles, nous attendons qu’elles soient respectées et, si ce n’est pas le cas, nous prendrons les mesures qui s’imposent. Des enquêtes sont actuellement menées par la Commission européenne, au terme desquelles des sanctions très lourdes peuvent être prononcées. Je compte bien aller au bout de cette question avec la Commission européenne.
Enfin, notre objectif n’est pas d’interdire pour interdire, ni de punir pour punir – j’entends cette petite musique monter – mais de protéger et de responsabiliser. Je me permets une comparaison que chacun comprendra. Nous avons interdit l’alcool avant 18 ans, nous avons encadré sa publicité, nous avons informé sur ses dangers à travers des campagnes de prévention. Il nous faut faire la même chose pour les réseaux sociaux, non par méfiance à l’égard du progrès, mais par nécessité de donner des repères et de poser des limites pour accompagner les parents et les jeunes.
C’est tout le sens de la stratégie que je déploie avec mes collègues ministres Élisabeth Borne et Catherine Vautrin, sous l’égide du Premier ministre et du Président de la République. Nous avons besoin d’un cadre clair pour les familles, d’outils pour les éducateurs et de dispositifs concrets pour aider les enfants à grandir dans un environnement numérique sûr. Je n’ignore pas la difficulté de ce combat – je salue l’engagement de tous ceux qui le mènent. Ce combat bouscule des habitudes, heurte des intérêts et réclame du courage. Je vous le dis avec gravité, avec conviction, protéger nos enfants en ligne est un défi immense, mais c’est un combat que nous pouvons gagner, ici, en Europe. Nous construisons ensemble une protection à la hauteur de notre époque.
Mme Laure Miller, rapporteure. Je vous remercie, madame la ministre, de porter ce combat, au sein du Gouvernement et au niveau européen. Je vous sais gré de défendre nos enfants.
Le DSA a souvent été salué lors des auditions pour sa contribution à la régulation des plateformes à l’échelle européenne. On ne peut toutefois s’empêcher de juger sa mise en œuvre trop lente. Ses effets tardent à se faire sentir dans les foyers. Aux yeux de M. Marcangeli, qui vous a précédé devant nous, c’est même un symbole de l’impuissance publique.
Vous avez indiqué qu’en cas de blocage au niveau européen, vous prendriez vos responsabilités au niveau national. Pouvez-vous préciser de quelle manière et dans quel délai ?
Mme Clara Chappaz, ministre déléguée. Tout le monde le sait désormais, les réseaux sociaux ont un impact non négligeable sur la santé de nos enfants.
Le DSA est un texte dont nous pouvons être fiers. Les Européens ont décidé de faire peser la responsabilité sur les plateformes. Ce texte a été l’un des premiers – depuis, le Royaume-Uni a adopté le Online Safety Act – à être aussi ambitieux et déterminé en la matière. C’est un vrai changement de paradigme. Les plateformes ne sont plus de simples hébergeurs techniques, elles ont des responsabilités nouvelles dans plusieurs domaines parmi lesquels la protection des enfants en ligne. Je ne laisserai personne diffuser la petite musique de l’impuissance de l’Europe. L’Europe est forte, notamment de ses 450 millions de citoyens – elle compte plus d’utilisateurs des réseaux sociaux qu’aux États-Unis. C’est ce qui lui a permis d’imposer ses règles.
Je ne me satisfais évidemment pas de la longueur des enquêtes – je l’ai dit plusieurs fois à la Commission européenne. J’entends son argument selon lequel les enquêtes doivent être d’autant plus solides que le texte est récent – il n’a été transposé que l’année dernière en droit français – et qu’il traite de sujets de société majeurs. Mais, oui, nous voulons que les enquêtes aillent plus vite et nous voulons des changements structurels. J’ai confiance dans le fait que nos outils de régulation sont les bons. Les amendes, qui peuvent aller jusqu’à 6 % du chiffre d’affaires mondial, peuvent avoir un impact sur les acteurs économiques et les changements impulsés par le texte peuvent avoir un impact systémique. Il faut que nos règles s’appliquent plus fort et plus vite.
Nous avons connu récemment des évolutions. Je pense à TikTok Lite, une fonctionnalité qui a été retirée du marché européen à l’issue d’une enquête. D’autres enquêtes sont en cours et nous ferons tout pour qu’elles aboutissent, et le plus vite possible. Deux d’entre elles concernent TikTok : une sur le design, l’autre sur les ingérences. Nous les suivons de très près et nous nous assurons qu’elles aillent au bout, comme cela a été cas pour des enquêtes fondées sur un autre texte récent, le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 dit Digital markets act (DMA). Meta et Apple ont été condamnés il n’y a pas si longtemps.
En ce qui concerne les avancées européennes, nous sommes à un moment charnière. Je pense que la voix de la France est entendue et je m’en réjouis. Dans les trois mois qui viennent, nous avons une occasion unique de définir, dans le cadre du DSA, ce que nous attendons des plateformes pour protéger les mineurs. Or la première des protections tient à la connaissance de l’âge des utilisateurs. On peut créer toutes les fonctionnalités, par exemple, les comptes adolescents, – je salue ces très bonnes initiatives –, mais tant qu’on ne connaît pas l’âge de la personne, elles sont inopérantes.
Le combat que nous menons en ce moment consiste à s’assurer que les lignes directrices, qui ont vocation à préciser le contenu du texte, mentionnent clairement la vérification, et non l’estimation de l’âge. Je l’ai dit, treize pays sont d’accord avec nous pour demander une vérification, qui est la base de tout système de protection. La Commission européenne connaît très bien notre position. Nous avons réuni des ministres chargés de la santé et de l’éducation pour exprimer une position forte sur cette question. Si nous pouvons imposer le principe de la vérification de l’âge, ensuite nous travaillerons avec la Commission, et j’ai déjà commencé à le faire, afin que les États membres aient la liberté de choisir l’âge minimal pour accéder aux réseaux sociaux. La France pourrait alors le fixer à 15 ans.
Si nous n’arrivons pas à obtenir l’obligation de vérification de l’âge au niveau européen – je ferai tout pour que nous réussissions –, il nous faudra étudier toutes les voies nationales, en bonne intelligence avec la Commission, qui nous sait très attentifs et très déterminés. Le cas échéant, nous devrons nous assurer que ce que nous déciderons soit opérant. Plusieurs pistes sont sur la table mais un combat après l’autre : le premier, c’est la vérification de l’âge au niveau européen et on avance.
Mme Laure Miller, rapporteure. Les travaux de notre commission d’enquête sont ciblés sur TikTok. Vous avez mentionné certains bienfaits des réseaux sociaux, notamment dans le domaine des relations humaines, mais le seul objet de TikTok est de diffuser des vidéos sur un fil en continu. Pensez-vous que TikTok a une spécificité ?
Mme Clara Chappaz, ministre déléguée. Mon rôle n’est pas de porter un jugement de valeur sur tel ou tel réseau, mais de m’assurer qu’ils respectent toutes nos règles et de travailler en étroite collaboration avec la Commission pour ce faire.
Quand je repère le hashtag #SkinnyTok, j’alerte et je dénonce mais je saisis aussi l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique) et la Commission européenne pour qu’une enquête soit ouverte. J’aurais procédé de la même manière pour n’importe quelle plateforme, parce que la protection des mineurs relève de leur responsabilité en vertu du DSA. Plusieurs enquêtes sont en cours et TikTok n’est pas la seule plateforme concernée : il y en a aussi sur X et sur d’autres réseaux. Je veux que toutes ces enquêtes aillent au bout parce que les heures que passent les Européennes, les Européens, les Françaises et les Français sur les réseaux, quels qu’ils soient, doivent être encadrées par des règles.
Mme Laure Miller, rapporteure. Lors de notre déplacement à Bruxelles, la question de la vérification de l’âge a été abondamment abordée. Pourquoi vous battez-vous pour qu’elle prenne le pas sur l’estimation ?
Il a également été question du mini wallet et du e-wallet. Pouvez-vous nous en dire plus, en particulier sur les délais de mise en œuvre de ces solutions ?
Mme Clara Chappaz, ministre déléguée. Je me bats pour que les plateformes aient la responsabilité de vérifier l’âge. Il existe de nombreuses solutions techniques. Le recours à un tiers de confiance, qui s’assure de la protection des données personnelles, en est une. Lorsqu’ont été mis en place, les outils auxquels la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique dite loi Sren nous autorise à recourir pour protéger les mineurs des contenus pornographiques, certains se sont inquiétés d’un risque en matière de données personnelles. Il n’en est rien car le référentiel établi par l’Arcom, avec l’aide de la Cnil (Commission nationale de l’informatique et des libertés), est très clair : la solution dite du double anonymat permet de vérifier l’âge sans donner d’informations personnelles. Ce qui vaut pour les sites pornographiques pourrait s’appliquer aux réseaux sociaux.
Pourquoi plaidons-nous en faveur de la vérification de l’âge et non de l’estimation ? L’estimation consiste, à partir d’informations que les plateformes rassemblent, à déterminer si la date de naissance renseignée par l’utilisateur est vraisemblable. Alors que nombre d’entre elles disent y avoir recours, force est de constater que ce procédé n’a pas fait la preuve de son efficacité : trois enfants sur quatre disent être sur les réseaux sociaux avant l’âge minimum, qui est fixé à 13 ans dans les conditions d’utilisation actuelles.
Il doit également être très clair pour les utilisateurs que ce service n’est autorisé, à l’instar de l’alcool, qu’à partir d’un certain âge. La vérification lors de l’entrée sur le réseau social semble la meilleure façon de porter un tel message et de le faire respecter. Chacun sait que pour acheter de l’alcool, il faut prouver qu’on est âgé de 18 ans.
L’interdiction a aussi la vertu d’offrir aux familles le cadre qu’elles attendent. Je participe tous les mois sur l’ensemble du territoire à des cafés IA (intelligence artificielle). On y parle de ce sujet, mais pas une seule fois, je n’ai échappé à des interpellations sur le sujet des réseaux sociaux. Vous savez mieux que personne le désarroi des parents puisque vous en avez rencontré un grand nombre. Il est parfois difficile pour eux d’assumer une décision d’interdiction. Ils pourront s’appuyer sur la régulation, et l’obligation de vérification de l’âge par les plateformes qui en découle, pour fixer un cadre à leurs enfants.
Dans le cadre des discussions que nous avons eues avec les sites pornographiques en début d’année, nous avons recensé une quinzaine d’outils capables de s’acquitter de cette vérification, sachant que nombre de plateformes sont capables de relever elles-mêmes le défi technique. Nous travaillons au niveau européen sur le mini wallet, qui apporterait une solution harmonisée de vérification de l’âge fondée sur le double anonymat, open source et qui ferait appel à des technologies européennes. La commission nous a indiqué que la première phase commencerait en juillet et la France s’est portée volontaire pour faire partie des pays pilotes qui déploieront cette solution. Nous pourrons ainsi nous assurer que le cadre mis en place pour les sites pornographiques, sous l’égide de l’Arcom et de la Cnil, est conforme au cadre européen afin que la régulation soit la plus opérante possible.
M. Thierry Sother (SOC). En premier lieu, j’aimerais savoir ce que vous inspire la décision rendue par le tribunal administratif de Paris, il y a quarante-huit heures, sur la vérification de l’âge sur les sites pornographiques, décision qui met en exergue son épineuse articulation avec le droit européen.
En ce qui concerne les effets des réseaux sociaux sur la santé mentale des jeunes, nous savons depuis les Facebook Leaks, en 2021, qu’ils sont parfaitement connus et même recherchés par les plateformes pour maintenir l’utilisateur connecté le plus longtemps possible. Or, le DSA ne traite pas cette question. Il donne l’impression d’être une boîte à outils intéressante, mais dont les outils ne seraient pas utilisés. Quant aux enquêtes, que ce soit contre X ou d’autres plateformes, elles se concentrent sur les questions de concurrence, mais pour ce qui est de la protection de mineurs, il ne se passe rien. Il faudrait interpeller l’échelon européen pour revoir les modalités d’action et le calendrier dans ce domaine.
Enfin, s’agissant de la vérification de l’âge, qui est essentielle, vous avez évoqué le e‑wallet. En France, nous avons l’application France Identité, sur laquelle les utilisateurs peuvent enregistrer leurs documents d’identité. Cet outil pourrait-il être utilisé comme tiers de confiance, en produisant un certificat anonymisé que les plateformes et les réseaux pourraient reconnaître de manière sécurisée ?
Mme Clara Chappaz, ministre déléguée. Pour le dire sans détour, je ne suis pas surprise que les sites pornographiques mettent tout en œuvre pour ne pas se conformer à leurs obligations. S’ils avaient voulu protéger les enfants de contenus qui leur sont interdits, ils l’auraient déjà fait. Soyons clairs : nous leur demandons simplement de faire respecter une interdiction ancienne de plus de trente ans et dont les manquements aboutissent à ce qu’un garçon sur deux et une fille sur trois consomment régulièrement du contenu pornographique dès 10 ans. Eu égard aux enjeux commerciaux, le monde dans lequel ces plateformes auraient, de leur propre chef, instauré des mécanismes de protection n’existe pas. C’est là que le rôle du Parlement et du Gouvernement prend tout son sens.
Il y a quarante-huit heures, le tribunal de Paris a décidé de suspendre l’application de l’arrêté qui oblige les sites pornographiques à vérifier l’âge des utilisateurs. D’ici au jugement définitif, nous ferons tout pour faire prévaloir nos arguments. Nous allons nous pourvoir en cassation devant le Conseil d’État afin de contester cette décision, d’ailleurs différente de celle rendue il y a une ou deux semaines concernant un autre recours. Pour notre part, notre ligne ne dévie et ne faiblit pas : les sites pornographiques doivent protéger les enfants. Une loi a été votée par le Parlement et nous nous efforcerons de la faire respecter par tous les sites. C’est un long combat, que nous mènerons jusqu’au bout ; vous pouvez compter sur mon entière détermination.
Outre ces procédures nationales, les choses avancent au niveau européen. Je tiens à le souligner, car on a beaucoup entendu qu’avec la loi Sren, la France avançait seule et que l’instauration d’une vérification d’âge était impossible. Non seulement nous avons montré que c’était possible, mais surtout que l’Europe suivait. En ce qui concerne les lignes directrices du DSA, la Commission européenne a inclus dès ses propositions la vérification de l’âge sur les sites pour adultes. Ainsi, aux sites qui cherchent à se soustraire à leurs obligations, j’indique que la réglementation progresse. Ils peuvent donc continuer à gagner du temps ou prendre leurs responsabilités et protéger les enfants.
S’agissant, ensuite, des effets sur la santé mentale, qui sont documentés, je vous rejoins : moi aussi, je souhaite que les enquêtes menées dans le cadre du DSA aillent plus vite et aboutissent. Chaque jour, des contenus comme ceux liés à la tendance SkinnyTok sont vus, sauf erreur, par 500 millions de jeunes filles. Ils incitent à l’extrême maigreur et affirment – je l’ai personnellement constaté sur mon propre fil – qu’il vaut mieux être vide que vilaine ou que quand l’estomac gargouille, c’est qu’il applaudit. Nous mesurons les effets absolument délétères de ce type de contenus sur la santé mentale et la santé tout court des jeunes filles qui les regardent en boucle.
Des enquêtes sont donc en cours et il faut utiliser les outils que nous avons à notre disposition. Nous rappelons notre position de fermeté à la Commission européenne et je répète que nous ne sommes pas seuls. Tous mes homologues sont parfaitement alignés pour affirmer que ce que nous avons obtenu au sujet de TikTok Lite, dont nous avons rapidement obtenu l’interdiction grâce à une enquête de la Commission, pourrait être reproduit concernant les autres problèmes identifiés sur les différentes plateformes. Certes, les enquêtes doivent être solides, mais il faut qu’elles aboutissent et nous y veillons.
En ce qui concerne la documentation, le DSA impose clairement à TikTok et aux autres plateformes d’analyser les risques systémiques, parmi lesquels figure la protection des enfants. Elles ont ainsi pour obligation de remettre un rapport annuel sur les conséquences négatives de leurs contenus sur le bien-être physique et mental des mineurs. J’ajoute que la réglementation européenne prévoit aussi la possibilité de mener des audits des algorithmes pour comprendre techniquement comment les plateformes sont gouvernées et identifier les éventuels biais cognitifs qu’ils induisent, de sorte de demander des corrections. Encore une fois, il faut maintenir la pression et exiger l’aboutissement des enquêtes : vous pouvez compter sur moi.
S’agissant, enfin, du contrôle de l’âge, France Identité constitue bien l’une des solutions existantes. J’ai également rencontré les représentants de Docaposte lors du salon VivaTech, la semaine dernière, qui est le plus important au monde dans le domaine de l’innovation. Il faut sortir de l’idée, avancée par certains acteurs réticents, selon laquelle il n’existe pas de solution. J’invite les plateformes à se renseigner : il y en a une quinzaine rien que dans notre pays. Des entreprises m’ont indiqué qu’avec la blockchain, elles pouvaient émettre des tokens (jetons) ou qu’avec telle technologie, elles proposaient telle possibilité, etc. Des solutions existent, grâce à des tiers de confiance qui pourront apporter une certification, et il n’est plus entendable de se cacher derrière des arguments faussement techniques, surtout quand on est une entreprise numérique particulièrement innovante.
M. Belkhir Belhaddad (NI). Les jeunes sont les premiers à subir les risques associés aux médias algorithmiques, à commencer par la désinformation. À cet égard, j’aimerais revenir sur la labellisation volontaire des influenceurs d’information.
Vous venez d’évoquer la certification, mais du côté technique, c’est-à-dire des entreprises proposant des solutions. Or les influenceurs qui produisent de l’information ne sont pas soumis aux mêmes règles déontologiques que les journalistes, les éditeurs de presse ou les services audiovisuels. Le rapport des états généraux de l’information, dont les conclusions ont été rendues en septembre 2024, recommande la reconnaissance de celles et de ceux qui, sur les plateformes, visent à offrir une information de qualité, indépendante et attachée aux faits. Ces personnes s’engageraient volontairement – je dis bien volontairement – à respecter des exigences renforcées en matière de traitement de l’information, de qualité des sources et d’honnêteté dans la présentation des faits.
Sous quelles conditions serait-il possible d’instaurer cette labellisation volontaire, dans le respect des libertés d’expression, de communication et d’information ? Le Gouvernement envisage-t-il un tel dispositif ?
Mme Clara Chappaz, ministre déléguée. Vous touchez du doigt un point central, car le DSA aborde la question de la responsabilité des plateformes face à la désinformation. Cet élément fait l’objet de nombreux débats et est souvent mis en opposition avec la liberté d’expression. Soyons clairs : cette dernière est un droit fondamental, un principe fondateur et il n’a jamais été question que le règlement européen le remette en cause.
Le DSA est néanmoins très clair : ce qui est interdit hors ligne l’est aussi en ligne. La liberté d’expression n’est pas définie de la même manière par la Déclaration des droits de l’homme et du citoyen et le premier amendement de la Constitution américaine ; c’est un fait. Ainsi, au cours de cette audition, à la radio ou sur un réseau, au-delà de la désinformation, il y a des propos illicites – homophobes, antisémites, d’appel à la haine, à la violence, au terrorisme, etc. – qu’on ne peut pas tenir. Les plateformes, aux termes du DSA, ont donc la responsabilité d’agir sur les contenus qui contreviendraient à cette règle, ainsi que de manière systémique sur la désinformation. Comme elles doivent le faire au sujet de la protection des mineurs, les plateformes doivent établir un rapport annuel quantifiant les risques et présentant des pistes de solution.
Les outils sont nombreux et les plateformes sont libres de choisir la façon dont elles se saisissent du sujet. Elles peuvent créer un réseau de journalistes ou encore appliquer des notes communautaires, c’est leur pleine liberté, mais elles doivent être claires sur l’efficacité des dispositifs retenus. Elles ont aussi pour obligation de coopérer avec les chercheurs agréés. Des enquêtes sont en cours afin de déterminer si les dispositifs choisis par les plateformes sont efficaces.
S’agissant de la responsabilité des producteurs de contenus eux-mêmes et de la qualité de l’information qu’ils proposent, plusieurs études montrent que les jeunes ont autant confiance en celle rapportée par les influenceurs qu’en celle des titres de presse ; c’est la réalité du monde dans lequel on vit. Le chiffre est à vérifier, car je le cite de tête, mais deux enfants sur dix, et ce n’est qu’un exemple, pensent que les pyramides ont été construites par des extraterrestres. Cela peut faire sourire, mais c’est ainsi.
En définitive, la responsabilité des plateformes est établie : le cadre est clair et il doit s’appliquer. Répondre à cet enjeu n’est pas facile, mais les solutions retenues doivent être efficaces. Quant à la responsabilité des créateurs de contenus, sachez que nous avons confié une mission à MM. Delaporte et Vojetta afin de prolonger leur loi dite influenceurs (loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux) en ce sens, bien sûr dans le respect du droit européen, afin de protéger nos enfants.
M. le président Arthur Delaporte. Mission pour laquelle nous attendons la lettre officielle, manière de vous adresser une petite relance. (Sourires.)
M. Stéphane Vojetta (EPR). Il y a un an, dans le cadre du projet de loi portant diverses dispositions d’adaptation au droit de l’Union européenne (Ddadue), nous avons demandé au Gouvernement de remettre au Parlement un rapport sur les mesures d’adaptation que nous devrions prendre à la suite des observations émises par la Commission européenne sur la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne, dite loi Marcangeli, qui visait à établir une majorité numérique à 15 ans. Ce rapport est-il prêt ? Quelles en sont les principales conclusions ? Y figure-t-il des pistes juridiques pour nous permettre, à nous Français, d’imposer aux plateformes des contraintes spécifiques, une fois que la vérification de l’âge des utilisateurs sera obligatoire en Europe ?
À cet égard, M. Arthur Delaporte et moi-même avions anticipé le fait que, tôt ou tard, la vérification de l’âge sera obligatoire, la loi dite influenceurs imposant non aux plateformes mais aux créateurs de contenus de filtrer leurs productions en conséquence et d’empêcher leur consultation par les mineurs dès lors qu’elles promeuvent certains produits ou services qui leur sont interdits. Il me semble qu’il s’agit là d’une voie de passage juridique. Peut-être y en a-t-il d’autres et j’aimerais vous entendre sur ce point.
Ensuite, je souhaitais aborder la question du contrôle parental et de la responsabilisation des parents. En effet, on ne peut uniquement parler d’interdictions : il faut aussi éduquer, sensibiliser, s’assurer que les parents participent, comprennent les risques auxquels sont exposés leurs enfants et utilisent les outils à leur disposition. Ceux-ci sont nombreux et intégrés aux systèmes d’opération et aux plateformes, mais nous déduisons de la réticence des acteurs à nous répondre à ce sujet que, très souvent, les comptes détenus par les mineurs – qu’ils soient ou non identifiés comme tels – ne font pas l’objet d’un contrôle parental ni d’une limitation de temps d’utilisation. La proportion de comptes contrôlés par les parents semble très faible.
Faudrait-il donc réfléchir à renforcer la loi n° 2022-300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d'accès à internet dite loi Studer et imposer aux fabricants de vendre des écrans configurés par défaut pour les moins de 18 ans ? Le déblocage de l’appareil pourrait bien sûr avoir lieu ensuite, une fois que l’utilisateur aura fait la preuve de son âge. Est-ce une piste envisagée ? Le cas échéant, pourrait-elle fonctionner sur le plan juridique ?
Mme Clara Chappaz, ministre déléguée. En ce qui concerne le rapport, je tiens à vous présenter mes excuses, au nom du Gouvernement, pour le retard. Nous devions vous le remettre il y a déjà quelques mois et je sais que vous êtes sensibles au respect des délais. Je l’ai signé hier et il vous sera donc remis très prochainement.
Je salue la loi Marcangeli. Elle a été votée à l’unanimité, ce qui montre bien que ces enjeux de société majeurs sont transpartisans. Pour résumer, mais nous pourrons en reparler quand vous aurez reçu le rapport, deux éléments ont été pointés par la Commission européenne. Le premier a trait à la procédure de notification du texte auprès de la Commission, laquelle n’a pas pleinement respecté la période de statu quo prévue. Deuxièmement, plusieurs dispositions du texte sont en contradiction avec le droit européen.
Dès lors, ainsi que l’indique le rapport, deux options s’offrent à nous. Premièrement, nous pourrions dupliquer le contenu de la loi dans une ordonnance et reprendre la procédure de notification, afin de faire les choses dans l’ordre. Cependant, d’après nos services, l’adéquation du texte avec les réglementations européennes demeurerait très fragile. C’est pourquoi je privilégierais une seconde solution selon laquelle la vérification de l’âge serait instaurée au niveau européen, en laissant la possibilité aux États membres de déterminer celui à partir duquel l’accès aux réseaux sociaux serait autorisé. De cette manière, nous serions en accord avec les lignes directrices du DSA que nous sommes en train de rédiger en ce moment même. C’est ainsi, je le crois, que nous pourrons interdire les réseaux sociaux avant 15 ans.
C’est tout le travail que nous avons entamé avec la Commission européenne depuis quelque temps. Sans vouloir entrer dans des détails trop complexes, plusieurs bases légales européennes encadrent les plateformes. Outre le DSA, il y a le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD) et la directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (SMA), sur laquelle nous nous étions d’ailleurs appuyés s’agissant des sites pornographiques. Avec la Commission, nous analysons les différentes possibilités afin de définir un âge légal à partir duquel une personne pourrait s’inscrire sur les réseaux sociaux. Lors du dernier Conseil européen, Henna Virkkunen, vice-présidente de la Commission, nous a assurés de sa volonté de nous accompagner en ce sens. Le travail n’est pas abouti, si bien que je ne peux encore indiquer de quelle manière les choses vont se passer, mais je compte bien aller au bout.
Le DSA interdit déjà aux plateformes de cibler les mineurs avec de la publicité. Il s’agit d’une première décision très importante, que la loi influenceurs a prolongée en obligeant les créateurs à préciser lorsqu’un contenu est sponsorisé et en prohibant la promotion de certains produits – plateformes et créateurs s’exposant à de très lourdes sanctions en cas de manquement. J’ajoute qu’il est également défendu de faire apparaître des produits interdits aux mineurs dans des publicités qui leur sont dédiées et de faire apparaître des enfants dans des contenus commerciaux sans autorisation.
Ces travaux vont dans le sens d’une meilleure responsabilisation et d’une protection accrue des mineurs en ligne. D’ailleurs, nous nous sommes aussi entretenus avec Michael McGrath, commissaire européen à la démocratie, à la justice et à l’État de droit, au sujet du projet de Digital fairness act, qui s’inspire de vos travaux sur l’influence commerciale en ligne. Ce n’est pas un combat facile et il reste des choses à faire, en particulier sur la vérification de l’âge, qui est la question centrale. La France montre la voie.
S’agissant ensuite du rôle des parents et des outils à leur disposition, je salue le travail mené par votre ancien collègue, Bruno Studer, afin que des dispositifs de contrôle parental soient préinstallés sur les différents appareils. Nous avons d’ailleurs organisé une réunion avec Catherine Vautrin, ministre du travail, de la santé, des solidarités et des familles, et les opérateurs téléphoniques afin qu’ils nous communiquent des informations sur le recours à ces dispositifs. Sont-ils connus et utilisés par les parents ? Nous suivrons cette question de près.
Comme vous l’avez très justement souligné, il faut être conscient de la situation. Les plateformes qui ont aussi élaboré des contrôles parentaux nous indiquent très honnêtement qu’ils ne sont pas massivement utilisés. Je ne m’interdis pas de réfléchir à l’opportunité de les installer par défaut, mais il y a aussi une question d’éducation. Je le disais en introduction : le travail mené par le Parlement, par cette commission d’enquête et par le Gouvernement doit conduire à un vrai débat de société sur la place que les écrans prennent dans la vie de nos enfants et leurs conséquences bien réelles sur leur santé. Il faut donner des pistes de réflexion aux familles et les outils de contrôle parental en est une. Les trois quarts des parents y sont favorables, mais près de 60 % d’entre eux ne les utilisent pas.
J’y insiste, il y a des enjeux d’éducation, de sensibilisation, d’accompagnement vis‑à‑vis desquels nous devons être attentifs. Nous y prendrons toute notre part. Les règles seules ne suffisent pas.
M. le président Arthur Delaporte. Quelles sont nos marges de manœuvre au niveau national ? Nous réfléchissons aux moyens d’agir rapidement, mais lorsque nous sommes allés à Bruxelles, on nous a indiqué que le Digital fairness act devrait aboutir à l’horizon 2029. Devrons-nous attendre cette échéance ou l’élaboration d’un nouveau DSA ?
Mme Laure Miller, rapporteure. En effet, pourriez-vous préciser l’état de vos échanges avec la Commission européenne et les premières conclusions sur le fondement desquelles nous pourrions légiférer au niveau national ? Le cas échéant, peut-être pourrions‑nous d’ailleurs publier les décrets d’application de la loi Marcangeli ?
Mme Clara Chappaz, ministre déléguée. C’est une question importante et je ne pourrai vous donner toutes les réponses que vous souhaitez, étant donné que la discussion est en cours. Nous étudions toutes les pistes – DSA, SMA, RGPD – pour avancer.
Soyez assurés que cette priorité de la représentation nationale est partagée par le Gouvernement. J’en profite d’ailleurs pour saluer la proposition de résolution européenne déposée cette semaine par la sénatrice Catherine Morin-Desailly sur la protection des mineurs en ligne. Notre volonté forte et assumée est d’aller plus loin en la matière et de convaincre nos partenaires européens en ce sens. Dans la mesure où nous sommes en train de préciser les lignes directrices du DSA et les obligations des plateformes concernant la protection des mineurs, c’est le moment d’agir et c’est la raison pour laquelle je me suis donné trois mois pour progresser.
S’agissant de la loi Marcangeli, comme je le disais, si nous voulons la conserver en l’état, il faudrait prendre une ordonnance. Le problème principal a trait à l’autorité de régulation. Or puisque nous avons confié cette mission à la Commission européenne s’agissant des très grandes plateformes, dont celle à laquelle votre commission d’enquête s’intéresse, le processus serait très long – environ un an – et nécessiterait un projet de loi Ddadue. C’est pour cette raison que ce n’est pas vers cette solution que nous nous dirigeons. Nous étudions toutes les pistes pour que les choses soient opérantes et, comme je l’ai dit, la Commission européenne partage notre volonté de trouver une voie de passage.
Je reconnais que c’est long et compliqué, mais n’oublions pas que ce que l’Europe a décidé de faire est fondamental et que si nous pouvons y arriver, c’est parce que nous sommes 450 millions. Je suis très fière d’être Européenne pour cette raison. Si, lorsqu’elles seront achevées, des enquêtes estiment que des plateformes ont manqué à leurs obligations et que des amendes sont prononcées en conséquence, ce sera un moment fondateur. Ne sous-estimons pas le chemin parcouru par l’Europe sur cette question.
Mme Laure Miller, rapporteure. Vous avez raison de rappeler le rôle de l’Europe dont, en tant que Français, nous n’avons pas toujours conscience. Il faut d’ailleurs rendre hommage à M. Thierry Breton, qui a réalisé un travail colossal – c’est une star à Bruxelles, aux yeux de certains parlementaires européens !
Je souhaite vous interroger sur la sensibilisation des parents et des enfants. Au cours des auditions de parents de victimes et d’associations de parents d’élèves, nous avons relevé une certaine incompréhension à l’égard de l’éducation nationale. En effet, on nous alerte régulièrement sur l’impact de l’exposition aux écrans et du numérique sur les enfants – la commission « Enfants et écrans » a d’ailleurs rendu ses conclusions à ce sujet. Or, même si les familles font de la résistance en essayant de ne pas confier de téléphone à leurs enfants et de limiter l’usage des écrans à la maison, c’est l’école elle-même qui met un écran dans les mains des enfants par le biais d’applications telles que Pronote. Quel regard portez-vous sur cette question ? Lorsque nous avons auditionné les représentants de l’éducation nationale, j’ai eu le sentiment qu’il faudrait du temps pour tirer les leçons des travaux de la commission « écrans » et appliquer ses recommandations dans le milieu scolaire.
Mme Clara Chappaz, ministre déléguée. Comme je l’ai souligné dans mon propos liminaire, je travaille avec mes collègues Catherine Vautrin et Élisabeth Borne, sur l’impact des écrans sur les enfants, puisque les trois sujets – numérique, santé et éducation – sont étroitement liés.
J’entends les interrogations des parents. Sous l’impulsion du président de la République et du premier ministre, la ministre d’État Élisabeth Borne a fait siennes plusieurs recommandations de la commission « Enfants et écrans », qui seront appliquées dès la rentrée 2025. Elle a ainsi annoncé la généralisation de la pause numérique dans les collèges, avec l’interdiction du téléphone portable dans ces établissements : cette mesure, très attendue, permettra de mettre en adéquation le discours avec ce qui se passe à l’école. Elle a également annoncé le lancement du défi « Dix jours sans écrans » et son souhait d’instaurer une pause dans les notifications envoyées par le logiciel Pronote, en particulier durant la nuit et à certaines heures du week-end – les modalités restent à préciser –, parce que cela fait partie des problèmes soulevés par les parents et des recommandations de la commission « Enfants et écrans ».
Catherine Vautrin a également annoncé, il y a quelques jours, l’interdiction de l’usage des écrans pour les enfants de moins de 3 ans. À l’instar de la loi dite anti-fessée, défendue par Adrien Taquet lorsqu’il était secrétaire d’État chargé de l’enfance et des familles, qui a permis de mettre en lumière cette pratique et de fixer un cadre très clair dans les familles, l’objectif est de fixer une règle commune pour tous : les écrans sont interdits avant l’âge de 3 ans.
Nous travaillons également à la communication sur le sujet. Nos prédécesseurs ont lancé le dispositif « Je protège mon enfant », qui comprenait plusieurs campagnes de sensibilisation. Il est encore trop tôt pour vous préciser quelle forme prendra la communication, néanmoins nous réfléchissons à une politique d’accompagnement qui va de pair avec les interdictions, puisque l’un ne va pas sans l’autre : il faut d’abord fixer des règles, puis accompagner, éduquer et sensibiliser.
M. Thierry Sother (SOC). Dans votre propos liminaire, vous avez évoqué une plateforme qui a dépensé des sommes considérables dans une campagne publicitaire, pour aboutir finalement à un jeu de ping-pong dans lequel chacun se renvoie la balle sur les actions à mener afin de protéger les mineurs. Derrière l’affichage, il y a une volonté de la part des plateformes de se dédouaner et de se déresponsabiliser, par facilité, et, en définitive, de s’en laver les mains.
Selon vous, comment pourrions-nous intégrer des messages de prévention sur les plateformes elles-mêmes ? Par exemple, pour s’inscrire à une course à pied, vous n’êtes plus tenu désormais de produire un certificat médical, mais vous devez regarder une vidéo préventive présentant les risques potentiels. Ne pourrions-nous pas ouvrir un dialogue avec les plateformes sur ce sujet ? Lorsque nous les avons auditionnées, elles ont déclaré, la main sur le cœur, que leur système économique était le plus sain et le plus vertueux possible. Au bout d’un certain laps de temps passé en continu sur une plateforme, on pourrait imaginer la diffusion de vidéos de prévention obligatoires, qui bloqueraient la consultation d’autres contenus tant qu’elles n’auraient pas été visionnées par l’utilisateur. Ce serait utile non seulement aux mineurs mais aussi aux parents qui, pour beaucoup, n’ont pas conscience de l’impact des réseaux sociaux.
Mme Clara Chappaz, ministre déléguée. Je vous rejoins en ce qui concerne la campagne de publicité : s’il est bon d’appeler à la vérification de l’âge, il y a un peu de cynisme à attendre de la Commission européenne une réglementation en la matière. Pour faire un parallèle, c’est comme si, en matière de vente d’alcool dont on connaît parfaitement les risques que sa consommation fait peser sur les mineurs, on en était encore à dire : « Empêchez-nous de leur en vendre » ! Face à des entreprises qui privilégient leurs intérêts commerciaux et ne prennent pas leur responsabilité, notre action prend tout son sens. Et nous prendrons nos responsabilités.
S’agissant de la prévention, ce sont effectivement de bonnes idées. C’est d’ailleurs ainsi que je conçois mon action : je crois en la coconstruction avec les plateformes. Je les ai réunies, à la mi-avril, pour leur faire part de ma volonté d’interdire les réseaux sociaux aux jeunes de moins de 15 ans, ainsi que pour réfléchir ensemble à ce qui pourrait être fait, au-delà de la régulation, pour présenter davantage de contenus positifs. Par exemple, face aux vidéos prônant l’extrême maigreur, TikTok a expliqué mettre en avant des contenus qui présentent aux utilisateurs des explications sur ce type de tendances. Je ne sais pas si cela fonctionne, mais c’est déjà une bonne chose que des plateformes, qui rassemblent des centaines de millions de personnes et dont l’audience est considérable, puissent être des vecteurs d’éducation et de sensibilisation.
C’est ainsi, également, que l’on peut imaginer le rôle des influenceurs. La mission qui sera confiée très prochainement à MM. Delaporte et Vojetta devra réfléchir aussi au moyen de les associer à cette dynamique, afin qu’ils relayent les messages positifs. Dans le cadre du défi « Dix jours sans écrans », lancé avec Élisabeth Borne, nous avons essayé d’encourager des créateurs de contenus à partager les messages de sensibilisation ; plusieurs d’entre eux ont réalisé des vidéos pour interpeller les jeunes et leur montrer comment, sans écrans, il est possible de reprendre le contrôle de son quotidien.
Il peut sembler surprenant d’entendre la ministre chargée du numérique inviter à la déconnexion. Que des influenceurs qui ont une activité commerciale sur les réseaux sociaux invitent à cette prise de conscience est assurément une bonne chose. Au-delà de la régulation, nous avons l’occasion de coconstruire avec les plateformes et de les faire participer à des solutions positives d’éducation et de sensibilisation.
Mme Laure Miller, rapporteure. Si je cherchais à polémiquer, je dirais que le Parlement agit parfois en ordre dispersé, mais que le gouvernement le fait également, puisque Aurore Bergé a organisé, comme vous, une réunion avec les plateformes. Cependant, je préfère voir les choses sous un angle positif et noter que tous les ministres se saisissent désormais du sujet – de la même manière, il y a quelques années, l’environnement n’était traité que par le ministre de l’écologie, alors qu’il s’agit d’un sujet transversal. Que pense la ministre chargée du numérique du fait que de plus en plus de ministres s’emparent du sujet, ce qui est une bonne chose ?
Mme Clara Chappaz, ministre déléguée. C’est une bonne chose, en effet, de même que la constitution de votre commission d’enquête ou la proposition de résolution européenne de la sénatrice Catherine Morin-Desailly, que j’ai évoquée tout à l’heure. Nommée ministre déléguée chargée de l’intelligence artificielle et du numérique à la fin du mois de septembre, j’ai un profil plutôt technique : j’ai travaillé pendant une dizaine d’années dans le numérique, au sein de différentes start-up et entreprises. Pourtant, il ne se passe pas un jour sans que je répète que le numérique n’est pas un truc de geek, mais un sujet de société, éminemment politique. À voir la détermination que vous mettez à travailler sur ces questions et celle de plusieurs de mes collègues du Gouvernement, notamment M. Laurent Marcangeli, pour dénoncer l’ampleur du problème, je me dis qu’il est possible d’embarquer toute la société.
J’ai évoqué tout à l’heure les cafés IA. Dans tous mes échanges sur le numérique avec mes interlocuteurs, qu’il s’agisse des parents, des enfants ou encore des enseignants, la question des réseaux sociaux revient sur la table. Plus nous serons nombreux à nous intéresser à ce sujet de société et à y chercher des réponses, mieux ce sera.
C’est d’ailleurs aussi un sujet de préoccupation majeure du président de la République. La commission « Enfants et écrans », dont il a pris l’initiative, a permis d’établir, sur la foi des experts, l’impact des réseaux sociaux et des écrans sur les enfants et de formuler des recommandations que les ministres Catherine Vautrin, Élisabeth Borne et moi-même mettons en œuvre avec détermination, dans une démarche interministérielle très fluide. Il y va de la protection de nos enfants.
Par conséquent, il n’y a pas d’ordre dispersé mais un sujet qui prend de l’ampleur, et c’est une bonne chose. D’ailleurs, j’invite tous les parlementaires à prendre part aux débats organisés sur ces questions, même si cela semble un peu technique – je pense par exemple à un débat organisé au Sénat sur l’impact des réseaux sociaux sur la vie démocratique et la question des ingérences étrangères. Sachant que les plus jeunes passent quatre heures par jour sur les réseaux sociaux, qu’ils s’y informent et s’y sociabilisent, il est fondamental que les responsables politiques comprennent l’ampleur du phénomène et unissent leurs forces pour apporter des réponses appropriées.
Mme Laure Miller, rapporteure. Je faisais référence aux questions de sexisme et de masculinisme mises en avant par la ministre Aurore Bergé. Pour justifier l’absence de modération a priori sur ces sujets, les plateformes se retranchent derrière l’existence d’une zone grise dans laquelle la loi ne prévoit aucune sanction pénale. Ma question est donc double : la loi française doit-elle évoluer pour prendre en compte ce type de questions, qui sont difficiles à appréhender ? Et faut-il que la procédure judiciaire évolue pour être plus rapide – je pense à une sorte de référé numérique –, afin de retirer plus efficacement, a posteriori, des contenus problématiques ?
Mme Clara Chappaz, ministre déléguée. Je vous ferai une réponse à plusieurs étages. Le DSA est très clair : les plateformes ont la responsabilité de protéger leurs utilisateurs et de s’attaquer aux risques systémiques, dont la protection des mineurs. Grâce aux audits réguliers et aux enquêtes menés, des réponses systémiques peuvent être trouvées. Les associations, qui jouent le rôle de signaleurs de confiance et font un travail remarquable depuis des années sur la protection des enfants en ligne, ont parfois le sentiment de vider l’océan à la petite cuiller. Par conséquent, la réponse ne peut être que systémique. En ce sens, le DSA est un outil puissant face aux contenus qui enfreignent la réglementation. Il n’y a pas de zone grise : quand c’est illicite, c’est illicite et les plateformes ont une responsabilité et une procédure à respecter. C’est sans doute plus compliqué pour d’autres thématiques mais, dans ce cas, le problème ne concerne pas que le domaine numérique : c’est pareil dans le monde physique. Faut-il légiférer sur ces contenus ? L’articulation entre discours de haine et masculinisme ou sexisme est-elle suffisamment claire dans le droit français ? Je laisserai ma collègue Aurore Bergé, qui est experte de ces questions, y répondre. Néanmoins, dans le cadre du DSA, les discours de haine, quels qu’ils soient, ne sont pas autorisés sur les plateformes et les risques systémiques, dont le risque masculiniste, sont de la responsabilité des plateformes.
J’ai commencé à étudier de près le sujet des procédures judiciaires : cela fait écho à une question qui m’a été posée hier au Sénat, lors des questions au Gouvernement, sur l’anonymat sur les réseaux sociaux. Je tiens à rappeler qu’il n’y a en ligne qu’un pseudo-anonymat qui peut, certes, encourager des discours de haine et des comportements répréhensibles. Toutefois, ces comportements sont punis de la même façon qu’ailleurs : il n’y a pas d’impunité en ligne. Dans l’affaire de cyberharcèlement dont a été victime M. Thomas Jolly, sept personnes ont été condamnées à des peines pouvant aller jusqu’à huit mois de prison avec sursis. Certes, la procédure a été longue puisqu’elle a duré environ sept mois, de mémoire, et j’entends que ce ne soit pas satisfaisant. Est-il possible d’être plus opérant et de raccourcir les délais ? Il faudra que nous y réfléchissions avec le ministre Gérald Darmanin. Quoi qu’il en soit, je tiens à être très claire : les propos interdits dans le monde physique le sont aussi en ligne. Il n’y a pas d’impunité sur les réseaux sociaux, ni d’anonymat : il est tout à fait possible de retrouver ceux qui profèrent des propos illicites grâce à leur adresse IP et aux données de connexion que la plateforme a l’obligation de conserver précisément pour ce type de délits, et de les punir.
Mme Laure Miller, rapporteure. On nous a souvent dit que la lutte contre les contenus à caractère terroriste en ligne pouvait servir de modèle. Partagez-vous cette appréciation ?
Parmi les moyens de lutter contre les influenceurs et leurs contenus problématiques, la répression des fraudes et les différents types de sanctions qui peuvent leur être infligées vous semblent-ils être une voie à suivre ? Je sais que le président de la commission d’enquête travaillera sans doute sur ces sujets, mais avez-vous une réflexion en la matière pour faire évoluer le droit ?
Mme Clara Chappaz, ministre déléguée. Depuis l’adoption de la loi sur les influenceurs, ceux-ci doivent respecter certaines obligations et même si tous les décrets n’ont pas encore été publiés, l’autorité de contrôle peut commencer à l’appliquer. Nous avons échangé avec la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) sur cette question et nous veillerons à ce que les outils dont nous disposons désormais soient utilisés, afin de rappeler aux influenceurs leur responsabilité. Faut-il faire davantage ? C’est le sens de la mission confiée à MM. Arthur Delaporte et Stéphane Vojetta, qui examineront s’il est possible d’étendre ces responsabilités, dans le respect du cadre européen. Je suivrai ce travail avec la plus grande attention.
Mme Laure Miller, rapporteure. Comment décririez-vous votre relation avec les plateformes ? Vous avez évoqué ce que vous avez dû faire en ce qui concerne le hashtag #SkinnyTok : est-ce le rôle de la ministre de se rendre à Dublin pour soulever cette question ? Avez-vous, au sein de votre cabinet, une vigie qui relève les contenus problématiques et les signale régulièrement aux plateformes, en plus des signaleurs de confiance, dont c’est le rôle ?
Mme Clara Chappaz, ministre déléguée. C’est, en effet, le rôle des signaleurs de confiance, de l’Arcom et de l’ensemble des citoyens. D’ailleurs, la loi Sren a institué une réserve citoyenne du numérique, sur laquelle nous sommes en train de travailler, afin de s’appuyer sur ceux qui sont prêts à participer à ce projet. Je suis une ministre très attentive et lorsqu’une tendance telle que SkinnyTok se fait jour, je me sens dans mon rôle de la signaler à l’Arcom ainsi qu’à la Commission européenne et de tout mettre en œuvre pour obtenir des réponses de la part des plateformes. Et si elles me répondent qu’elles n’ont pas le pouvoir de changer les choses en France et qu’il faut se rendre à Dublin, j’y vais ; et lorsque, à Dublin, on me répond qu’il faut aller à Los Angeles, je suis prête à y aller également ! Finalement, je n’en ai pas eu besoin puisqu’ils ont agi avant. Je continuerai de le faire, mais ce n’est pas une réponse systémique.
Le numérique étant un sujet éminemment politique, il faut mener un travail de fond, en particulier sur les lignes directrices du DSA. Encore une fois, j’entends les associations qui ont l’impression de vider l’océan à la petite cuiller, lorsqu’elles signalent les comportements problématiques sur les réseaux. Dans un monde idéal, ce n’est pas à moi de le faire, mais je continuerai tant que cela aidera à accélérer les choses. Mais, j’y insiste, je mets surtout toute mon énergie à obtenir des réponses systémiques pour sortir de cette situation. Il y va de l’avenir de nos enfants.
En ce qui concerne mes relations avec les plateformes, je vois très régulièrement ces entreprises, qui ont des projets divers et variés en France et qui sont, pour certaines, très impliquées dans nos laboratoires de recherche. Sur la question des réseaux sociaux et de la protection des mineurs, je les réunis régulièrement, depuis le début de l’année, dans une logique constante de fermeté dans les attentes et de coconstruction de la réponse. S’il est caricatural de croire qu’elles bougeront par elles-mêmes – lorsque les intérêts sont divergents, il faut de la régulation pour faire avancer les choses ; il en va ainsi depuis que le monde est monde –, il est tout aussi caricatural de penser qu’on ne peut pas travailler ensemble : nous pouvons faire beaucoup de choses avec les plateformes et j’ai bien l’ambition de continuer à travailler avec elles en ce sens, sans naïveté, mais avec force, détermination et fermeté dans le discours.
Ce sera peut-être le mot de conclusion : l’époque durant laquelle la prise de conscience du problème était encore fragile est désormais révolue. Et, d’un point de vue purement cynique, si les plateformes veulent conserver leurs utilisateurs, il faudra bien qu’elles s’attaquent au problème. Soit nous le faisons ensemble, soit nous le faisons contre elles ; mais, dans tous les cas, nous avancerons pour protéger nos enfants.
Mme Laure Miller, rapporteure. Je vous remercie, madame la ministre.
Enfin la commission auditionne les représentants de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF).
M. le président Arthur Delaporte. Mes chers collègues, nous accueillons aujourd’hui les représentants de la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), que je remercie pour leur présence.
Je salue M. Léonard Brudieu, sous-directeur, M. Paul-Emmanuel Piel, chef de bureau, et Mme Marie Pique, adjointe au chef de bureau.
Avec M. Stéphane Vojetta, nous avons eu l’occasion d’échanger avec la DGCCRF à de nombreuses reprises, notamment concernant l’encadrement de l’influence commerciale. Même deux ans après l’entrée en vigueur de la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, dite loi influenceurs, nous avons toujours un nombre important de questions.
Je souhaite souligner que les moyens de la DGCCRF demeurent insuffisants au regard de ses missions. Nous avons à plusieurs reprises, avec mon collègue M. Vojetta, défendu des amendements pour augmenter vos ressources.
Nous sommes régulièrement conjointement tagués par les utilisateurs des réseaux sociaux qui souhaitent signaler des contenus qui leur semblent problématiques ou non conformes à la loi. Cette audition est donc importante pour mieux comprendre votre travail, votre régulation de l’espace numérique, ainsi que vos besoins et les enjeux auxquels vous faites face.
Je vous remercie de nous déclarer tout intérêt public ou privé qui pourrait être de nature à influencer vos déclarations.
Avant de vous céder la parole, je vous informe que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter le serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».
(M. Léonard Brudieu, M. Paul-Emmanuel Piel et Mme Marie Pique prêtent serment.)
M. Léonard Brudieu, sous-directeur de la DGCCRF. Je vous remercie pour votre soutien à travers les différents amendements que vous portez afin de renforcer les moyens de la DGCCRF.
La DGCCRF constitue une administration chargée de la politique de commerce, notamment en matière de loyauté de l’information des consommateurs. Dans ce cadre, elle vérifie donc les allégations commerciales et constitue en quelque sorte « la police du mensonge ». Notre mission régalienne de régulation et de contrôle des marchés vise à instaurer la confiance dans les transactions commerciales. Cette mission représente un élément essentiel à la fluidité du commerce national et un élément de justice pour les consommateurs.
Nous couvrons tout le spectre du commerce, incluant l’activité des influenceurs et leurs pratiques commerciales, particulièrement leurs allégations sur les réseaux sociaux en matière de promotion. Notre compétence s’étend également à la sécurité des produits, avec une mission de vérification et de surveillance du marché, y compris pour les produits commercialisés via des plateformes e-commerce ou promus par des influenceurs sur les réseaux sociaux.
Je précise néanmoins que notre direction n’est pas directement compétente concernant les effets psychologiques sur les mineurs, mais que notre mission de régulation contribue à protéger les mineurs face à des pratiques commerciales pouvant avoir des effets psychologiques préjudiciables.
Concernant notre structure, nous sommes organisés autour d’une administration centrale, complétée par un service national des enquêtes, un service informatique et un service de laboratoires, permettant notamment de vérifier la sûreté des produits et les allégations commerciales. Nous disposons également d’une école nationale formant nos agents de terrain. L’administration centrale compte environ 450 agents chargés de la programmation et de la coordination des enquêtes, des fonctions support (gestion des ressources humaines et services informatiques) et du pilotage des réformes de politiques publiques aux côtés des cabinets ministériels. Notre école compte 300 agents, incluant les élèves. Sur le terrain, nous mobilisons 2 000 agents, répartis dans les services départementaux, les services régionaux et le service national des enquêtes. Nos personnels sont principalement recrutés à bac+3, avant d’être formés à l’école de la CCRF. Leurs profils sont majoritairement économiques, juridiques et scientifiques.
Ces dernières années, nous avons accompagné la montée en compétence numérique de nos agents, tant en formation initiale qu’en formation continue. Selon une enquête interne, en 2024, 15 % de nos enquêteurs étaient formés aux outils numériques. Cette formation ne concerne pas uniquement les réseaux sociaux, mais également le e-commerce, les plateformes et la vente de produits numériques, notamment relatifs au tourisme. Nous essayons d’accroître le nombre d’agents formés, mais cela prend naturellement du temps.
Nos moyens techniques dans le domaine numérique se sont renforcés, ces dernières années, concernant les contrôles sur les réseaux sociaux et les plateformes de e-commerce. Nous sommes maintenant en mesure de réaliser des captures d’écran ou de vidéos ainsi qu’un suivi des parcours consommateur pour analyser les allégations. Tous nos contrôles doivent être vérifiables et opposables, car ils peuvent déboucher sur des procédures pénales et des contentieux. Nos outils doivent donc être parfaitement fiables et compatibles avec les procédures d’enquête policière, ce qui explique le temps nécessaire à leur développement.
Nous avons récemment créé deux principaux outils internes pour répondre à ces exigences. L’outil COWEB permet, sur les navigateurs internet, de capter des éléments de manière opposable. Nous développons également un autre outil, spécifique aux réseaux sociaux, notamment pour la partie influenceur.
Ces dernières années, une cellule numérique est née au sein de l’administration centrale de la DGCCRF pour appuyer les enquêteurs. Cette cellule — qui compte une dizaine de personnes, dont des développeurs web et des data scientists – appuie le réseau afin d’extraire des données, de retraiter des fichiers et de transcrire des éléments de langage. Entre janvier et mai, la cellule a assuré 134 demandes de prestations numériques pour le réseau, dont 19 concernaient spécifiquement des influenceurs, y compris sur TikTok.
Concernant les moyens financiers, nous disposons de 9,6 millions d’euros de budget de fonctionnement. Cette somme est bien inférieure au montant des amendes perçues par l’État du fait de nos activités. Nos missions permettent de renforcer la confiance dans le marché. Les moyens de notre administration pourraient effectivement être renforcés.
Concernant les moyens spécifiquement affectés aux contrôles des influenceurs, nous avons commencé à développer des enquêtes dès 2022, avec la montée en puissance des allégations sur les réseaux sociaux. Un accroissement de l’activité a eu lieu à partir 2023-2024. En 2025, nous élargissons notre action aux interdictions de pratiques établies par la loi dite influenceurs, notamment sur les sujets relatifs aux cryptoactifs et aux promotions de comptes personnels de formation (CPF).
En termes de ressources humaines, 130 enquêteurs interviendront au moins une fois dans l’année 2025 sur une enquête relative à des réseaux sociaux et des influenceurs. Ces agents ne se consacrent évidemment pas exclusivement à cette mission tout au long de l’année et agissent également dans les domaines du numérique et du e-commerce. Une quinzaine de personnes de l’administration centrale appuient et coordonnent ces investigations de façon active.
Par ailleurs, notre plateforme SignalConso a recueilli 1,2 million de signalements depuis son lancement en 2020. Son objectif consiste à permettre la mise en relation avec les entreprises, les influenceurs et les plateformes lorsque ces derniers l’acceptent, ce qui n’est pas toujours le cas. Cette plateforme recense les signalements, établit un contact avec les entreprises et permet parfois de trouver une solution, le tout sous la surveillance de la DGCCRF. Ce dispositif permet également de cibler les contrôles et d’obtenir des éléments pour initier des enquêtes.
Sur la question spécifique des influenceurs, nous comptabilisons 20 600 signalements depuis 2022. Le premier signalement relatif à TikTok, qui constitue l’objet de votre commission, est intervenu en mars 2023. Depuis, nous avons enregistré près de 1 200 signalements concernant spécifiquement les influenceurs sur TikTok. Il convient de préciser que les influenceurs opèrent généralement sur plusieurs réseaux sociaux simultanément, mais les personnes qui effectuent ces signalements mentionnent parfois la plateforme spécifique où elles ont constaté le problème. À titre de comparaison, Facebook et Instagram totalisent un peu plus de 9 000 signalements, tandis que Snapchat en compte plus de 5 000. Si les signalements liés à TikTok étaient auparavant relativement peu nombreux, nous observons une augmentation significative depuis quelques mois.
Par ailleurs, les signalements que nous recevons couvrent des sujets variés. Une partie importante concerne l’intention commerciale et la publicité déguisée, qui relèvent directement du champ de contrôle de la DGCCRF. D’autres signalements portent sur des sujets concernant des activités illicites, la santé, les jeux d’argent, la contrefaçon ou encore les escroqueries. Même si le champ d’activité n’est pas toujours celui de la police de la DGCCRF, cela nous permet d’aller piocher des éléments liés à notre champ de contrôle.
M. le président Arthur Delaporte. Je constate que la messagerie Telegram est absente de l’un de vos graphiques.
M. Léonard Brudieu, sous-directeur de la DGCCRF. Telegram représente entre 0,4 et 0,6 % des signalements.
M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Le premier graphique ne contient pas toutes les courbes, mais seulement celles des dix principaux réseaux sociaux, pour des raisons de lisibilité.
SignalConso n’étant pas un outil parfait, on peut, par exemple, nous déclarer que Leboncoin est un réseau social.
M. Léonard Brudieu, sous-directeur de la DGCCRF. Nous avons effectué une comparaison entre Instagram, Snapchat et TikTok afin d’analyser si les pratiques sont homogènes. Nous constatons qu’Instagram concerne plutôt des pratiques en matière d’intention commerciale (pratiques commerciales déloyales et trompeuses), tandis que TikTok concerne davantage des pratiques en lien avec le domaine de la santé (médecine esthétique ou exercice illégal de la médecine) et des escroqueries. Dès lors que ce sujet relatif à la santé commence à toucher à des pratiques commerciales, la DGCCRF peut être habilitée.
M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Cet exercice a été effectué seulement sur le mois de mai, car nous n’avons pas la possibilité de lire tous les signalements. SignalConso est en premier lieu un outil de mise en relation de l’entreprise avec le consommateur. Nous effectuons ensuite des recherches afin de savoir quels sont les réseaux sociaux les plus signalés dans le but de nous aider à cibler nos actions.
M. Léonard Brudieu, sous-directeur de la DGCCRF. Un dernier tableau présente le bilan de nos activités en matière de contrôle des influenceurs. Il convient de préciser que ce tableau ne cible pas TikTok, mais tous les réseaux sociaux, puisque ces influenceurs sont généralement présents sur plusieurs plateformes. Notre mission consiste à contrôler les influenceurs, et non les réseaux sociaux qu’ils utilisent.
Nous avons contrôlé 290 influenceurs en 2024.
M. le président Arthur Delaporte. Vous contrôlez donc simultanément tous les comptes d’un influenceur ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Oui. Certains influenceurs sont particulièrement actifs sur un réseau social et nous pouvons alors contrôler ce seul compte. Cependant, d’autres influenceurs agissent sur plusieurs réseaux sociaux. Depuis le début de l’année, les dix-neuf actions d’appui de notre cellule numérique pour les réseaux de contrôle concernaient plusieurs réseaux sociaux à la fois.
Nous avons effectué 292 contrôles, qui ont révélé un taux d’anomalie de 47 %. Ce pourcentage signifie qu’au moins un manquement a été identifié dans près de la moitié des cas examinés. Il convient toutefois de préciser que, lors de nos enquêtes, nous ciblons les influenceurs pour lesquels nous suspectons un écart. Nous ne procédons pas à des contrôles aléatoires. Ce taux d’anomalie montre qu’il existe encore de nombreux écarts en matière de pratiques commerciales trompeuses, ce qui est l’essentiel de notre champ d’action.
De janvier et mai 2025, 96 enquêtes étaient en cours – ou terminées – et nous prévoyons d’atteindre un volume global d’environ 250 enquêtes d’ici la fin de l’année. Ces chiffres doivent être mis en perspective avec les prévérifications réalisées en amont pour effectuer nos ciblages. Si SignalConso permet de déterminer des ciblages, il existe également un travail de différents bureaux sectoriel de l’administration centrale visant à identifier les profils posant potentiellement une difficulté. Ce travail n’est pas suffisant pour une enquête, mais nous permet de proposer des cas nécessitant une investigation. Lorsque 250 enquêtes sont menées, plus de 1 000 cas sont vérifiés.
Les 292 enquêtes réalisées en 2024 représentent en réalité environ 700 contrôles, car nous revenons fréquemment sur les mêmes profils pour caractériser les pratiques, vérifier la continuité dans le temps et qualifier l’intentionnalité du délit de pratiques commerciales trompeuses.
En 2024, notre activité a permis environ 80 injonctions administratives de mise en conformité, 6 sanctions administratives fermes et 13 procès-verbaux pénaux, qui sont transmis au parquet et font l’objet de suites.
Notre priorité concernant les injonctions administratives est d’enjoindre les influenceurs à réaliser eux-mêmes une communication pédagogique. Cette approche s’avère particulièrement efficace pour atteindre directement l’ensemble des consommateurs et utilisateurs des réseaux sociaux. Lorsque des influenceurs comptant parfois plusieurs millions d’abonnés effectuent une communication pédagogique, cela touche un grand nombre de personnes. Par exemple, nous avons enjoint un influenceur issu de la télé-réalité de réaliser une communication pédagogique pour corriger ces pratiques passées et sensibiliser ses abonnés aux risques en matière de copy trading et de jeux d’argent, rappelant que certaines allégations sur les réseaux sociaux peuvent être trompeuses. Toutefois, les 292 enquêtes ne donneront pas lieu à des communications cette année, car le cadre juridique exige que nous attendions la fin des procédures pour demander cette communication corrective. Depuis 2023, nous comptons une vingtaine de mesures de publicité pédagogique sur les réseaux sociaux et le site de la DGCCRF.
Mme Laure Miller, rapporteure. Lors de notre audition des dirigeants de TikTok la semaine dernière, nous les avons particulièrement interrogés sur TikTok Shop. La presse a en effet largement relayé des exemples de produits commercialisés sur cette plateforme qui suscitent des interrogations quant au respect des réglementations nationales et européennes. Nous les avons notamment questionnés sur certains bonbons proposés, pour lesquels on peut douter du respect de la réglementation. Menez-vous actuellement des enquêtes spécifiques concernant des produits, qui ciblent manifestement un jeune public, sur TikTok en particulier ? Avez-vous identifié certaines plateformes posant davantage de difficultés en matière de conformité des produits aux normes françaises et européennes ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Une part importante des difficultés concernent les grandes plateformes de e-commerce, davantage utilisées que TikTok Shop et sur lesquelles nous réalisons évidemment des contrôles. TikTok Shop, relativement récent, a bien été identifié. Cette plateforme constitue une spécificité, puisqu’il s’agit d’un réseau social associant une plateforme de e-commerce. Nous menons actuellement une enquête sur les pratiques de TikTok Shop, indépendamment des produits qui y sont commercialisés. Je rappelle que toutes les grandes plateformes font l’objet d’une enquête pour vérification.
Lorsque des produits dangereux nous sont signalés, cela engage de notre côté des processus d’enquêtes. La sécurité des produits est un domaine dans lequel nous pouvons aboutir à des demandes de retrait. Cette situation s’est présentée récemment sur TikTok, en lien avec des influenceurs qui faisaient la promotion de crèmes cosmétiques volumatrices dangereuses et interdites à la vente en France. Lorsque nous demandons à un influenceur de cesser leur promotion et qu’il obtempère spontanément, la situation se résout rapidement. Dans le cas contraire, cela peut aboutir à des procédures plus longues de réquisition numérique imposant la suppression des données. Ces procédures peuvent permettre le déréférencement, puis la restriction d’accès aux données, voire leur suppression. En 2024, une affaire sur TikTok a nécessité d’aller jusqu’au terme de la procédure en raison de la persistance d’un influenceur dans la promotion et la vente de crèmes cosmétiques interdites. Cette démarche, bien que longue, car impliquant de nombreux échanges, a finalement permis de résoudre la situation. TikTok adopte généralement une position alignée sur le cadre réglementaire européen et le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital services act (DSA). Parfois, lorsqu’une administration française demande à l’entreprise d’agir, des incompréhensions peuvent naître. Dans le cas mentionné, nous sommes parvenus à une résolution favorable en 2024. D’autres affaires similaires sont certainement en cours en 2025, mais je n’en connais pas précisément le détail.
M. le président Arthur Delaporte. Manque-t-il un décret d’habilitation de la DGCCRF pour faire appliquer la loi dite influenceurs ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Cette loi a fait l’objet d’une ordonnance en novembre 2024 visant à adapter sa configuration au cadre réglementaire européen. Depuis cette ordonnance, elle est applicable en France pour les influenceurs établis sur le territoire national.
En revanche, pour les influenceurs établis à l’étranger, mais exerçant une activité en France, nous sommes soumis au principe du pays d’origine, ce qui nécessite une procédure dérogatoire spécifique. Cette dernière implique d’intervenir par l’intermédiaire de l’État membre concerné, qu’il s’agisse de l’Irlande, de la Belgique ou du Luxembourg. Pour cette procédure particulière, un décret d’application serait nécessaire pour décrire les procédures et les compétences internes des différentes administrations. Ce décret n’a pas encore été publié.
La législation actuelle ne nous permet donc pas d’agir contre des influenceurs établis à l’étranger sur des domaines de la loi dite influenceurs. En revanche, nous pouvons déjà les poursuivre concernant les pratiques commerciales trompeuses. Cette interdiction des pratiques commerciales déloyales existait avant la loi évoquée, qui l’a ensuite consacrée et approfondie.
Le décret que j’ai évoqué n’est pas tant un décret d’habilitation qu’un décret de procédure. L’habilitation provient de la loi. La DGCCRF dispose d’habilitations sur certaines dispositions de la loi dite influenceurs, notamment l’interdiction relative aux cryptomonnaies et aux pratiques commerciales liées à Mon Compte Formation. En revanche, nous ne sommes pas habilités sur les dispositions en matière de santé.
M. le président Arthur Delaporte. Qui contrôle ces dispositions ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. À ma connaissance, personne n’est habilité en matière de police de contrôle sur ces dispositions de la loi.
M. le président Arthur Delaporte. Un simple décret suffirait-il pour remédier à cette situation ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Non, une loi est nécessaire.
M. le président Arthur Delaporte. Des dispositions ne sont donc pas applicables.
M. Léonard Brudieu, sous-directeur de la DGCCRF. En effet. Je note que l’interdiction s’applique. Une personne qui considère être lésée par une pratique interdite peut intenter une action au civil pour demander réparation du préjudice subi. En revanche, concernant la police, avec des sanctions administratives derrière, des dispositions législatives sont nécessaires.
M. le président Arthur Delaporte. Je suis surpris que cette question n’ait pas été soulevée plus tôt, alors même que nous avons eu des échanges. Cette problématique n’est pas apparue dans notre rapport d’application.
M. Léonard Brudieu, sous-directeur de la DGCCRF. La raison est peut-être qu’au sein du Gouvernement, il a fallu un temps pour déterminer qui est habilité. La DGCCRF est à l’origine plutôt compétente dans le domaine des pratiques commerciales. Voyant que les sujets relatifs à la médecine et à la chirurgie esthétique comportent des aspects pouvant s’apparenter à des pratiques commerciales, nous sommes plutôt ouverts pour être habilités sur ce point, mais cela nécessite de faire passer un amendement. Dans la proposition de loi visant à réduire l’impact environnemental de l’industrie textile, nous avons préparé un amendement permettant d’ajouter une interdiction de publicité pour la fast-fashion sur les réseaux sociaux, avec l’ajout d’une habilitation de la DGCCRF pour en renforcer l’efficacité. Cet amendement a, je crois, été adopté tel quel. Nous avons également voulu, à cette occasion, soutenir des amendements pour élargir notre habilitation au domaine de la santé, mais ils n’ont pas pu passer, car leur insertion dans cette loi semblait cavalière. Un autre vecteur doit donc être trouvé.
M. le président Arthur Delaporte. Nous sommes à votre disposition pour servir de vecteurs. Vous ne devez pas hésiter à nous contacter.
Avez-vous besoin de ressources ou de personnels supplémentaires pour monter en puissance ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Nous disposons d’une marge d’action dès lors qu’il s’agit de pratiques commerciales trompeuses. Dans le domaine de la santé, nous sommes habilités à intervenir quand il y a mensonge ou allégation mensongère, ce qui nous permet d’intervenir, par exemple, sur les produits cosmétiques interdits en France.
En revanche, pour une publicité relative au domaine de la santé qui ne serait pas mensongère, mais qui serait interdite, nous avons effectivement besoin d’une habilitation. Ces éléments concernent les points 1 et 3 de l’article 4 de la loi dite influenceurs. Nous pouvons également effectuer des signalements au procureur sous l’angle de l’article 40, ce que nous faisons parfois, mais cette procédure n’est pas aussi efficace que nos actions de police administrative.
M. le président Arthur Delaporte. En conclusion, la loi s’applique et des sanctions judiciaires peuvent être prononcées en cas de non-respect de cette loi, notamment lorsque des signalements sont effectués au titre de l’article 40. Combien de signalements avez-vous réalisés ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Je ne saurai pas vous répondre.
M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Ce point a été intégré dans la nouvelle demande d’enquête prévue pour 2025, car, avant l’ordonnance, nous étions confrontés à des difficultés liées à l’application de la loi. Le processus est en cours. Nous avons élaboré une enquête comportant des axes de produits ou services, incluant notamment l’aspect médical et chirurgical. Du fait de la forte attention politique et médiatique, les enquêteurs rédigeront et transmettront au procureur un rapport signalant du non-respect des dispositions du point 1 de l’article 4, conformément à l’article 40 du code de procédure pénale. À ce stade, il s’agit d’une demande, pour laquelle nous n’avons pas encore obtenu une remontée. Si un enquêteur suit un influenceur et constate la promotion de chirurgie esthétique, nous lui demandons de rédiger un signalement au titre de l’article 40, ce qui nous conduit à perdre la main sur la procédure, qui relève alors du procureur. Nous avons demandé aux enquêteurs de le faire systématiquement dans la demande d’enquête.
M. le président Arthur Delaporte. Nous sommes régulièrement sollicités par des citoyens concernant des contenus problématiques publiés par des influenceurs, notamment sur TikTok. Si vous avez suivi l’audition de M. et Mme Tanti la semaine dernière, vous avez pu constater que nous avons identifié en direct des contenus problématiques, notamment liés à la fast-fashion et à l’exposition d’enfants. Lorsque nous signalons ce type de contenu sur SignalConso, plusieurs mois peuvent s’écouler avant qu’une enquête ne soit menée. Pendant ce temps, les contenus impliquant des enfants demeurent accessibles en ligne. Ne pourrait-on pas concevoir un canal de signalement plus efficace et plus direct ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Le processus n’est pas aussi long que vous semblez le décrire. Le processus traditionnel d’enquête dans les secteurs économiques est celui que vous décrivez. Toutefois, le processus est plus rapide dans le domaine du numérique. C’est pour cette raison que nos équipes d’enquêteurs sont activement mobilisées depuis trois ans.
L’influenceur que vous mentionnez est déjà bien connu et a fait l’objet de contrôles et d’une enquête de notre part. Nous maintenons une surveillance, indépendamment de l’existence ou non de signalements sur SignalConso. Dès que nous recevons un signalement sur cet outil dans le domaine des influenceurs, nous l’examinons attentivement. Néanmoins, nous n’attendons pas d’accumuler des signalements avant d’envisager des enquêtes dans le domaine de l’influence commerciale, notamment parce que leur nombre reste accessible.
Je tiens à souligner que SignalConso n’est pas le seul outil de signalements et de difficultés. Cet outil nous permet de capter une partie des problématiques, mais nous menons également nos propres investigations. Par exemple, nous surveillons les cinquante influenceurs les plus importants d’un secteur, comme celui de la fast-fashion, et pouvons déclencher des enquêtes sur certains d’entre eux pour nous assurer que rien ne nous a échappé. Nous collaborons également avec des associations présentes dans le secteur.
M. le président Arthur Delaporte. Quelles sont ces associations ?
M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. L’Union des métiers de l’influence et des créateurs de contenus (Umicc), avec laquelle nous entretenons des relations régulières, et des collectifs de victimes nous transmettent des signalements.
M. le président Arthur Delaporte. Disposez-vous de canaux de communication directs avec ces associations ?
M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Nous disposons d’une adresse email.
M. le président Arthur Delaporte. Je suis intéressé par cette adresse, qui me permettra de vous transférer une part des nombreux contenus qui me sont signalés.
M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. La vigilance des enquêteurs sur le terrain permet de cibler certains influenceurs, dont ils regardent le contenu régulièrement. SignalConso présente certaines limites et nous l’utilisons pour identifier les influenceurs les plus signalés, ce qui nous permet de débuter des enquêtes. Nous avons constaté un cas où des influenceurs installés à Dubaï et auteurs de pratiques graves n’avaient fait l’objet que d’un seul signalement sur SignalConso. Notre méthode ne nous permettant pas d’identifier un tel cas grâce à cet outil, nous en avions eu connaissance par d’autres sources.
Par ailleurs, SignalConso est un outil de mise en relation du professionnel avec le consommateur. Ce dispositif fonctionne efficacement pour des professionnels ayant déjà une certaine notoriété et tout intérêt à éviter l’accumulation de signalements, sachant qu’ils entraînent une mise en enquête. La difficulté survient lorsqu’il s’agit de professionnels moins scrupuleux ou des types d’acteurs économiques, comme les influenceurs, qui, bien qu’ils soient professionnels, ne constituent pas des entreprises. Ces derniers n’ont pas nécessairement accès à SignalConso et les réseaux sociaux reçoivent un volume considérable de signalements qu’ils ne considèrent pas comme les concernant directement, puisqu’ils visent les influenceurs.
TikTok a répondu pendant un certain temps aux signalements sur SignalConso en indiquant qu’il convenait d’adresser les signalements via l’outil spécifique mis en place en application du DSA. Ces réponses étaient d’ailleurs relativement précises, comportant une analyse préliminaire mentionnant les différents mots-clés à utiliser dans leur outil. En application du DSA, ces signalements doivent être effectués sur l’outil dédié, basé en Irlande, dont le contrôle incombe à l’autorité irlandaise. Pour obtenir des retraits et bénéficier d’une analyse par TikTok, cet outil mis en place dans le cadre du DSA s’avère plus efficace.
M. le président Arthur Delaporte. Disposons-nous de visibilité sur les retraits de contenus liés à des pratiques commerciales ?
M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Lorsque ces dossiers sont traités par un autre État membre, nous n’avons pas d’accès direct. Un rapport de transparence est rendu, mais ces questions relèvent de la compétence des autorités nationales concernées et de la Commission européenne. Nous ne disposons pas de chiffres sur ces retraits de contenus. Lorsque nous demandons nous-mêmes un retrait, nous en assurons systématiquement le suivi. Cette demande est exceptionnellement adressée aux plateformes lorsque l’influenceur lui-même ne répond pas à l’injonction.
M. le président Arthur Delaporte. Si je repère un contenu problématique sur TikTok, quelle démarche me recommandez-vous ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Face à un contenu problématique sur TikTok, nous vous conseillons tout d’abord d’effectuer un signalement via l’outil prévu par la plateforme en application du règlement DSA. Cette option existe et peut s’avérer efficace, même si nous ne pouvons pas vous préciser son degré d’efficacité. De plus, vous pouvez également réaliser une déclaration sur SignalConso, ce qui permet à la DGCCRF d’être informée de la situation et d’engager une enquête si nous estimons qu’une difficulté relève de nos compétences.
M. le président Arthur Delaporte. Regardez-vous tous les jours les signalements effectués ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Les enquêteurs et les bureaux concernés regardent très régulièrement les signalements. Je ne m’engagerai pas à dire que cette surveillance est quotidienne – car je ne suis pas certain qu’elle soit effectuée les week‑ends –, mais elle est effectivement très régulière, plus particulièrement sur les questions liées aux influenceurs qui évoluent très rapidement.
M. le président Arthur Delaporte. Les influenceurs peuvent donc poster des contenus problématiques lors des week-ends.
Le dimanche représente d’ailleurs un moment privilégié pour les influenceurs qui publient souvent leurs stories à ce moment-là.
Mme Marie Pique, adjointe au chef de bureau au sein de la DGCCRF. Nous recevons chaque jour un rapport de SignalConso indiquant tous les signalements du département.
M. le président Arthur Delaporte. Les signalements numériques sont-ils localisés ?
M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Le problème réside dans le fait que ces signalements concernent l’entreprise TikTok.
M. le président Arthur Delaporte. Si je signale un contenu sur TikTok, un agent en prend-il connaissance ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Bien sûr.
M. le président Arthur Delaporte. Quel est le département concerné ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Lorsqu’un consommateur renseigne un département dans les champs de SignalConso, la direction départementale recevra un rapport automatique détaillant les signalements reçus, qu’il s’agisse de contenus d’influenceurs ou d’autres sujets traités. Au niveau de l’administration centrale, nous disposons de bureaux sectoriels, dont l’un est spécifiquement dédié au domaine numérique, comprenant un pôle influenceurs. Nous examinons – peut-être pas quotidiennement, mais régulièrement – les éléments relatifs à des influenceurs, quel que soit le département concerné, y compris lorsqu’aucun département n’a été spécifié.
M. le président Arthur Delaporte. Madame Pique, que se passe-t-il en cas de signalement effectué un samedi soir, concernant une publicité illégale pour des bonbons sur TikTok ?
Mme Marie Pique, adjointe au chef de bureau au sein de la DGCCRF. En réalité, cela dépend de la quantité d’informations que vous renseignez dans l’outil. Ces éléments déterminent qui recevra votre signalement. Il sera transmis au département où se trouve le siège social de l’influenceur, à condition que nous disposions de cette information.
M. le président Arthur Delaporte. Que se passe-t-il si je ne dispose pas de cette information ?
Mme Marie Pique, adjointe au chef de bureau au sein de la DGCCRF. Les consommateurs qui suivent régulièrement ces influenceurs possèdent souvent plus d’informations que nous ne le pensons. Ils connaissent parfois le lieu de résidence de la personne et peuvent indiquer le département d’habitation. À défaut, le signalement sera effectivement dirigé vers le département du siège social de TikTok, à savoir Paris.
M. le président Arthur Delaporte. Le département de Paris reçoit-il finalement la majorité des signalements numériques ?
Mme Marie Pique, adjointe au chef de bureau au sein de la DGCCRF. En effet. Nous disposons également d’un outil qui nous signale l’accumulation de nombreux signalements concernant une même entreprise. Ce n’est pas parce qu’un signalement est effectué le samedi que nous ne le verrons pas.
M. le président Arthur Delaporte. Que se passe-t-il ensuite ?
Mme Marie Pique, adjointe au chef de bureau au sein de la DGCCRF. Cela dépend du signalement.
M. le président Arthur Delaporte. Prenons l’exemple de bonbons problématiques sur le live d’un influenceur.
M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Si nous recevons trois signalements concernant un influenceur qui ne fait pas encore l’objet d’une enquête, il est fort probable que ces signalements ne soient pas vus. Lorsque le consommateur n’indique pas de rattachement à un département spécifique, ce cas se trouvera dans un flot de signalements et risque de passer sous notre radar. En effet, nous recherchons les signalements liés aux influenceurs les plus signalés. Nous traitons un volume important de signalements mal affectés et souvent imprécis.
Une fois qu’un influenceur est mis en enquête, l’enquêteur doit consulter SignalConso pour recueillir des éléments et réaliser rapidement les copies d’écran nécessaires. La difficulté ne se pose pas tant sur TikTok que sur d’autres réseaux sociaux où les contenus sont particulièrement éphémères. Le risque est que, lorsque nous lisons un signalement, le contenu ait déjà disparu du réseau social. Or, un signalement ne suffit pas pour effectuer un procès-verbal, qui nécessite un constat sur le réseau social.
Ainsi, lorsque nous constatons une activité importante chez un influenceur particulier, nous le plaçons sous surveillance. Nos outils numériques ne permettent pas de surveiller l’ensemble des influenceurs. Cette surveillance, qui concerne une vingtaine d’influenceurs actuellement, exige une capacité de stockage considérable. De plus, le stockage de toutes les vidéos ne garantit pas l’identification facile des contenus problématiques. Je rappelle qu’une influenceuse célèbre se filmait 16 heures par jour. Nous développons des outils pour essayer de détecter ces contenus.
Deux ou trois signalements isolés concernant un influenceur, sans renseignement de son numéro Siret, ne seront probablement pas détectés immédiatement. Sans enquête ouverte, aucun suivi spécifique n’est réalisé. Nous ne l’ajouterons à l’enquête que si les signalements le concernant prennent de l’ampleur. Il sera alors suivi à partir de cette date.
M. le président Arthur Delaporte. Ce système ne devrait-il pas évoluer pour gagner en agilité ?
M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. SignalConso a été conçu principalement comme un moyen d’intermédiation entre entreprises et consommateurs, non comme un moyen d’adresser des réponses, contrairement à RéponseConso. Le problème de RéponseConso est que seuls les utilisateurs insatisfaits de SignalConso y font remonter leurs réclamations. Dans ce cas, nous garantissons une affectation.
Au sein de l’administration centrale, nous essayons d’identifier les influenceurs qui font l’objet du plus grand nombre de signalements.
Pour analyser l’ensemble des signalements et répondre de façon agile, il faut développer de nouveaux outils. C’est pourquoi nous avons initié des travaux visant à recevoir des signalements directement de certains groupes de victimes, qui pourraient nous les transmettre très en amont, lorsque les contenus sont encore présents sur les réseaux sociaux, nous permettant ainsi de réaliser automatiquement des copies. Ce processus nécessite un important travail, notamment juridique, pour garantir sa faisabilité et sa légalité au regard du règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE dit règlement général sur la protection des données (RGPD).
M. le président Arthur Delaporte. La plupart du temps, les entreprises ne lisent pas les signalements. Vous ne les traitez que s’ils se multiplient, si j’ai bien compris. Cela revient à encourager le signalement en masse, car, sans cette mobilisation collective, le signalement d’un contenu problématique a peu de chance d’être vu.
M. Léonard Brudieu, sous-directeur de la DGCCRF. Il s’agit d’une question de priorisation des moyens de l’État. Un signalement isolé concernant une entreprise ne déclenche pas une enquête. Toutefois, si le sujet concerne un produit dangereux ou présente une réelle difficulté, nous constatons généralement une multiplication des signalements.
M. le président Arthur Delaporte. Permettez-moi une comparaison. Si j’étais un policier placé à un feu rouge, j’interviendrais directement en cas d’infraction. Pourquoi cette approche n’est-elle pas possible pour la DGCCRF ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Je doute que cette comparaison soit pertinente. D’ailleurs, les policiers ne sont pas systématiquement postés à chaque feu rouge.
M. le président Arthur Delaporte. Certes, mais lorsqu’un radar est positionné sur une voie rapide, tous les contrevenants sont automatiquement flashés.
M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. La situation est différente, car, dans le cas du radar, nous savons que les véhicules flashés sont dans l’illégalité, tandis que, pour de nombreux signalements, nous ne disposons pas de preuves. La difficulté majeure dans le domaine des pratiques commerciales – et c’est précisément pourquoi ces procédures s’étendent souvent sur plusieurs années – réside dans la nécessité d’établir formellement les faits.
M. le président Arthur Delaporte. Les publicités sans mention commerciale sont fréquentes. Pourrions-nous privilégier une approche où l’action entraîne immédiatement une réaction ?
M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. Ce cas est moins fréquent qu’auparavant. Dans la nouvelle rédaction de l’article 5.2, mis en conformité avec la réglementation européenne, nous laissons à l’influenceur la liberté de choisir les moyens pour signaler une intention commerciale. La Commission a insisté pour que nous précisions que, parfois, cette intention peut relever du contexte. En effet, si l’intention commerciale relève le contexte, sa mention n’est pas obligatoire. L’évaluation doit donc être effectuée au cas par cas. Dans la nouvelle rédaction, les termes « publicité » ou « communication commerciale » sont conseillés, mais d’autres formulations ou communications sont également acceptables. La mention n’est pas nécessairement écrite, elle peut être orale.
L’analyse juridique dépend donc de plusieurs facteurs, notamment de la notoriété de l’influenceur. Nos enquêteurs ont sollicité une analyse juridique pour un influenceur entièrement habillé en Gucci, filmé devant un mur Gucci, lors d’une cérémonie Gucci, afin de déterminer si un procès-verbal était nécessaire. Or, la conclusion a été négative, car l’intention commerciale relève manifestement du contexte. Le consommateur moyen comprend qu’il s’agit d’une publicité pour Gucci.
M. Léonard Brudieu, sous-directeur de la DGCCRF. Dès qu’un influenceur faisant l’objet d’une enquête franchit la ligne rouge, nous disposons des éléments de preuve nécessaires pour intervenir. Cependant, contrairement à l’analogie du feu rouge, l’écart n’est pas binaire. Dans le domaine des allégations, il faut prouver l’intentionnalité et la présence de caractéristiques trompeuses. Si un influenceur notoirement sponsorisé par une grande marque de sport apparaît sur les réseaux sociaux portant des chaussures de cette marque, la mention de la collaboration commerciale n’est pas nécessaire.
M. le président Arthur Delaporte. Ce n’est pas l’esprit de la loi. Cette situation n’est pas acceptable, car je peux me retrouver face à n’importe quel contenu proposé par l’algorithme sans disposer du contexte.
M. Léonard Brudieu, sous-directeur de la DGCCRF. La DGCCRF agit strictement dans le cadre prévu par le droit.
M. le président Arthur Delaporte. La loi ne stipule pas que le contexte doit primer.
M. Léonard Brudieu, sous-directeur de la DGCCRF. Si.
M. le président Arthur Delaporte. Non.
M. Léonard Brudieu, sous-directeur de la DGCCRF. Dans les pratiques commerciales trompeuses, il nous faut une intentionnalité et une caractéristique tenant compte des circonstances et du contexte, ce qui figure dans le droit européen et national. Ces éléments font partie de notre analyse. Nous ne pouvons pas fonctionner de façon binaire comme un radar automatique. Un traitement humain s’avère nécessaire à un moment donné. Un utilisateur des réseaux sociaux exposé à cette publication peut-il être trompé ? Si la réponse est affirmative, alors nous pouvons envisager la caractéristique de pratiques commerciales trompeuses. Toutefois, cela nécessite de recueillir les éléments de preuves et de démontrer l’intentionnalité.
M. le président Arthur Delaporte. Permettez-moi de vous lire l’alinéa 1 de l’article 5 de la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux : « La promotion de biens, de services ou d’une cause quelconque réalisée par les personnes mentionnées à l’article 1er doit être explicitement indiquée par la mention “Publicité” ou la mention “Collaboration commerciale” ».
M. Paul-Emmanuel Piel, chef de bureau au sein de la DGCCRF. L’article 5.2, qui a été réécrit à la demande de la Commission européenne. Une pratique commerciale trompeuse est définie par l’article L121-3 du code de la consommation. Il s’agit de « l’absence d’indication par une mention claire, visible et compréhensible, sur tout support utilisé, de l’intention commerciale poursuivie par une personne physique ou morale exerçant une activité d’influence au sens de l’article 1er, dès lors que cette intention ne ressort pas déjà du contexte ». En outre, le recours aux mentions est abordé dans le deuxième alinéa.
M. le président Arthur Delaporte. Le deuxième alinéa dispose que « l’intention commerciale peut être explicitement indiquée par le recours aux mentions “publicité” ou “collaboration commerciale” ou par une mention équivalente ».
M. Léonard Brudieu, sous-directeur de la DGCCRF. Nous devons bien distinguer ce qui relève d’un délit de pratiques commerciales trompeuses, qui nécessite la caractérisation d’une intentionnalité, et les éléments de contexte à considérer. Un traitement humain est indispensable et l’approche ne peut pas être binaire. Parallèlement, certains domaines font l’objet d’interdictions publicitaires spécifiques, comme la chirurgie esthétique. Dans ces cas précis, l’approche est effectivement binaire. En revanche, concernant les pratiques commerciales trompeuses, cela nécessite une analyse, des preuves, la démonstration d’une intentionnalité et un examen du contexte.
M. le président Arthur Delaporte. Vous constatez bien que ce dispositif n’est pas adapté à la publicité diffusée sur les réseaux sociaux. Sinon, votre définition du contexte n’est pas pertinente. À mon sens, le contexte d’une publicité ne doit pas nécessiter un clic supplémentaire. Cette approche s’apparenterait à l’utilisation d’astérisques en petits caractères. Le contexte doit être interprété de manière restrictive, alors que vous nous proposez une interprétation extensive de cette notion.
M. Léonard Brudieu, sous-directeur de la DGCCRF. Je ne vous donne nullement une interprétation extensive de cette notion. J’affirme que l’analyse du contexte nécessite un examen au cas par cas effectué par des enquêteurs. C’est précisément pour cette raison que nos enquêtes ne peuvent être binaires ou automatiques, comme pour les feux rouges et les radars.
M. le président Arthur Delaporte. Certaines situations semblent simples, comme la promesse de gagner des millions d’euros.
M. Léonard Brudieu, sous-directeur de la DGCCRF. Ces situations sont effectivement plus simples.
M. le président Arthur Delaporte. Pourrions-nous faire supprimer très rapidement ces contenus ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Nous pouvons effectivement agir rapidement en contactant directement l’influenceur pour l’enjoindre à cesser ses pratiques, ce qui ne fonctionne pas nécessairement.
M. le président Arthur Delaporte. Le fil X comporte de nombreuses publicités illégales relatives aux cryptomonnaies, ne comportant souvent aucune mention des risques associés, ce qui n’est pas acceptable.
M. Léonard Brudieu, sous-directeur de la DGCCRF. Vous soulevez un point crucial : sur les réseaux sociaux, et plus généralement dans l’environnement numérique, l’évolution est si rapide qu’elle met sous tension le cadre de police. Nos services effectuent des constats, qui doivent être opposables pour respecter d’autres éléments de droit constitutionnel. Des étapes de contradictoires sont nécessaires, ainsi que des éléments d’intentionnalité prouvés et caractérisés. Toutes ces exigences requièrent un minimum de temps.
M. le président Arthur Delaporte. Je cède la parole à M. Stéphane Vojetta.
M. Stéphane Vojetta (EPR). Votre interprétation du contexte et de la définition de l’influence commerciale m’a quelque peu surpris, mais nous aurons l’occasion de revenir sur ce sujet.
Avez-vous identifié, depuis la promulgation du texte en juin 2023, de nouvelles formes problématiques d’influence commerciale non couvertes par les textes existants ?
M. Léonard Brudieu, sous-directeur de la DGCCRF. Nous avons principalement constaté le développement de pratiques désormais interdites par cette législation, notamment dans le domaine de la santé et de la médecine esthétique, nécessitant une habilitation de police administrative afin que nous soyons plus efficaces.
Je ne crois pas avoir identifié l’émergence de nouvelles pratiques qui échapperaient au cadre législatif actuel, notamment parce que le spectre d’intervention de la DGCCRF est celui des pratiques commerciales. Sur les réseaux sociaux, diverses pratiques sont potentiellement répréhensibles ou choquantes, sans nécessairement relever du domaine commercial.
M. Stéphane Vojetta (EPR). Avez-vous reçu des signalements concernant l’activité commerciale liée au métier d’agent OnlyFans ? Je fais référence à ces personnes qui agissent en tant qu’agents d’influenceurs vendant du contenu érotique ou pornographique sur cette plateforme. Cette activité s’avère particulièrement lucrative pour les créateurs, mais également pour les agents, pas toujours bien intentionnés.
M. Léonard Brudieu, sous-directeur de la DGCCRF. Ce type de situation ne nous semble pas familier. Nous examinerons attentivement les signalements reçus à ce sujet afin de vous renseigner.
M. le président Arthur Delaporte. Cette audition s’achève. Je note que mon agacement n’est pas lié au travail des agents de la DGCCRF, dont je salue l’engagement.
M. Léonard Brudieu, sous-directeur de la DGCCRF. Ce sont les parlementaires qui font les lois.
M. le président Arthur Delaporte. Nous ressentons toujours une certaine frustration face au décalage entre nos ambitions et leur concrétisation effective. Cette frustration n’est pas uniquement la mienne, mais également celle des citoyens qui nous interpellent pour signaler des contenus problématiques toujours accessibles en ligne. Nous avons manifestement encore du travail à accomplir dans les mois à venir.
Je vous remercie.
La séance s’achève à treize heures dix.
Présents. – M. Belkhir Belhaddad, M. Arthur Delaporte, Mme Laure Miller, M. Thierry Sother, M. Stéphane Vojetta