Logo2003modif

N° 1030

______

 

ASSEMBLÉE   NATIONALE

 

CONSTITUTION DU 4 OCTOBRE 1958

DIX-SEPTIÈME LÉGISLATURE

 

Enregistré à la Présidence de l’Assemblée nationale le 5 mars 2025.

 

 

 

RAPPORT

 

 

 

FAIT

 

 

 

AU NOM DE LA COMMISSION DES AFFAIRES SOCIALES
SUR LA PROPOSITION DE RÉSOLUTION tendant à la création d’une commission d’enquête sur les effets psychologiques de TikTok sur les mineurs,

 

 

 

Par Mme Laure MILLER,

 

Députée.

 

——

 

 

 

 

 

 

Voir le numéro : 783.

 


 

SOMMAIRE

___

Pages

Examen de la proposition de rÉsolution

I. LA RECEVABILITÉ JURIDIQUE DE LA PROPOSITION DE RÉSOLUTION

II. L’opportunitÉ de la crÉation de la commission d’enquÊte

III. Les MODIFICATIONS APPORTÉES PAR LA commission

Travaux de la commission

annexe

 


—  1  —

   Examen de la proposition de rÉsolution

Le 16 janvier 2025, votre rapporteure a déposé une proposition de résolution « tendant à la création d’une commission d’enquête sur les effets psychologiques de TikTok sur les mineurs » (n° 783).

Dans le cadre de la procédure de droit commun prévue à l’article 140, alinéa 1, du Règlement, la commission saisie au fond d’une proposition de résolution tendant à la création d’une commission d’enquête doit, d’une part, vérifier si les conditions requises pour la création d’une commission d’enquête sont réunies (I) et, d’autre part, se prononcer sur son opportunité (II).

Dans l’hypothèse où la commission conclut positivement sur ces deux points, la création résulte dans un dernier temps du vote par l’Assemblée de la proposition de résolution déposée à cet effet.

I.   LA RECEVABILITÉ JURIDIQUE DE LA PROPOSITION DE RÉSOLUTION

Conformément à l’article 140, alinéa 1, du Règlement de l’Assemblée nationale, cette proposition de résolution a été renvoyée à la commission des affaires sociales, compétente au fond, afin qu’elle « vérifie si les conditions requises pour la création de la commission d’enquête sont réunies et se prononce sur son opportunité ».

Les conditions de recevabilité des propositions de résolution tendant à la création d’une commission d’enquête sont énoncées à l’article 6 de l’ordonnance du 17 novembre 1958 ([1]) et aux articles 137 à 139 du Règlement de l’Assemblée nationale.

Dispositions encadrant la création des commissions d’enquête

Article 137

Les propositions de résolution tendant à la création d’une commission d’enquête sont déposées sur le bureau de l’Assemblée. Elles doivent déterminer avec précision soit les faits qui donnent lieu à enquête, soit les services ou entreprises publics dont la commission doit examiner la gestion. Elles sont examinées et discutées dans les conditions fixées par le présent Règlement.

Article 138

1. Est irrecevable toute proposition de résolution tendant à la création d’une commission d’enquête ayant le même objet qu’une mission effectuée dans les conditions prévues à l’article 145-1 ou qu’une commission d’enquête antérieure, avant l’expiration d’un délai de douze mois à compter du terme des travaux de l’une ou de l’autre.

2. L’irrecevabilité est déclarée par le Président de l’Assemblée. En cas de doute, le Président statue après avis du Bureau de l’Assemblée.

Article 139

1. Le dépôt d’une proposition de résolution tendant à la création d’une commission d’enquête est notifié par le Président de l’Assemblée au garde des sceaux, ministre de la justice.

2. Si le garde des sceaux fait connaître que des poursuites judiciaires sont en cours sur les faits ayant motivé le dépôt de la proposition, celle-ci ne peut être mise en discussion. Si la discussion est déjà commencée, elle est immédiatement interrompue.

3. Lorsqu’une information judiciaire est ouverte après la création de la commission, le Président de l’Assemblée, saisi par le garde des sceaux, en informe le président de la commission. Celle‑ci met immédiatement fin à ses travaux.

Source : Règlement de l’Assemblée nationale.

● En premier lieu, en application de l’article 137 du Règlement, une commission d’enquête peut être créée « pour recueillir des éléments d’information soit sur des faits déterminés, soit sur la gestion des services publics ou des entreprises nationales, en vue de soumettre leurs conclusions à l’assemblée qui les a créées ».

En l’espèce, la commission d’enquête se donne pour objet d’étudier les faits précis permettant d’établir un lien entre le réseau social TikTok et les répercussions psychologiques pour les utilisateurs mineurs.

Comme l’indique l’exposé des motifs et à la différence de la commission d’enquête sénatoriale sur l’utilisation du réseau social TikTok ([2]), la commission d’enquête dont la création est demandée s’attachera exclusivement à l’étude des effets psychologiques du réseau social sur les mineurs. Conformément à la condition de recevabilité posée par l’article 137 du Règlement, la commission d’enquête dont la création est proposée vise donc bien à « recueillir des éléments d’information sur des faits déterminés » c’est-à-dire l’incidence du réseau social TikTok sur l’altération de la santé psychique des utilisateurs mineurs.

En effet, plusieurs travaux récents accréditent l’hypothèse d’un lien précis et déterminé entre l’utilisation du réseau social TikTok et les répercussions psychologiques pour les utilisateurs, notamment les mineurs.

En particulier, la commission d’enquête sénatoriale sur l’utilisation du réseau social TikTok ([3]) qui est citée dans l’exposé des motifs de la proposition de résolution, a documenté dès 2023 trois catégories de risques psychologiques résultant du fonctionnement même de l’application : la captation de l’attention poussée à l’extrême, la mise en avant de contenus dangereux ou hyper sexualisés et l’insuffisante prise en compte des risques pour la santé publique.

Les faits étudiés par cette commission d’enquête concernent les biais de fonctionnement du réseau social TikTok ayant des répercussions sur le psychisme, singulièrement celui des mineurs. Les trois risques identifiés par la commission d’enquête sénatoriale précitée invitent à penser que le réseau social TikTok recèle des dysfonctionnements singuliers, qui pourraient s’avérer particulièrement nocifs pour les jeunes utilisateurs.

Selon ce rapport, la captation de l’attention poussée à l’extrême et la mise en exergue de contenus dangereux ou hyper sexualisés constatés sur TikTok sont liés au fonctionnement même de l’algorithme, conçu pour proposer à un rythme très rapide de courtes vidéos ce qui permet de cerner très rapidement les intérêts des utilisateurs et de capter leur attention avec une additivité débattue au sein de la communauté scientifique. Ce réseau social se singularise également par une insuffisante prise en compte de l’impact de son utilisation sur la santé publique. Ce biais résulte notamment de l’échec patent des mesures de protection à l’égard des plus jeunes : qu’il s’agisse des alertes relatives au temps excessif passé sur l’application, du contrôle parental ou encore du contrôle d’âge qui ne parviennent pas à garantir l’effectivité de l’interdiction de l’application aux mineurs de moins de 13 ans puisque 45 % des mineurs de 11 à 12 ans sont inscrits sur TikTok.

Compte tenu de l’enjeu de santé publique que représente la santé mentale des plus jeunes, ainsi que des faits et questions précisément soulevés dans l’exposé des motifs de la présente proposition de résolution, il ne fait aucun doute que la première condition de recevabilité est pleinement satisfaite.

● Aux termes de l’article 138 du Règlement, il est interdit de créer une commission d’enquête qui aurait le même objet qu’une précédente commission d’enquête – ou mission d’information, lorsqu’elle s’est dotée des pouvoirs d’une commission d’enquête – avant l’expiration d’un délai de douze mois à compter du terme des travaux.

Depuis le début de la XVIIe législature, aucune commission d’enquête n’a porté sur les effets psychologiques des réseaux sociaux, ni sur la santé mentale des mineurs. Deux commissions d’enquête en cours sont susceptibles d’aborder le thème de la santé mentale des mineurs mais uniquement de manière indirecte : l’une porte sur les violences commises dans les secteurs du cinéma, de l’audiovisuel, du spectacle vivant, de la mode et de la publicité ([4]), l’autre porte sur les dysfonctionnements des politiques publiques de protection de l’enfance : soit un lien très indirect dans les deux cas avec l’objet de la présente proposition de résolution ([5]).

Il est ainsi manifeste qu’il n’a pas été fait usage des pouvoirs d’une commission d’enquête au cours de la période récente pour explorer le champ visé par la présente proposition de résolution.

La circonstance qu’une commission d’enquête sénatoriale a été consacrée en 2023 à l’influence du réseau social TikTok, ne contrevient par ailleurs ni aux dispositions du Règlement de l’Assemblée nationale ni à celles de l’ordonnance du 17 novembre 1958. En effet, l’Assemblée nationale est souveraine dans le choix de ses travaux de contrôle.

Il ne fait guère de doute, au regard de ces éléments, que la condition de recevabilité posée par l’article 138 du Règlement est donc satisfaite.

● L’article 6 de l’ordonnance précitée de 1958 dispose en outre qu’il « ne peut être créé de commission d’enquête sur des faits ayant donné lieu à des poursuites judiciaires et aussi longtemps que ces poursuites sont en cours ». Il s’agit là d’une exigence ferme, qui vise à garantir l’effectivité de la séparation des pouvoirs constitutionnels et à éviter tout empiètement du pouvoir politique sur le domaine judiciaire.

Pour en garantir l’application, l’article 139 du Règlement prévoit que « le dépôt d’une proposition de résolution tendant à la création d’une commission d’enquête est notifié par le Président de l’Assemblée au garde des sceaux, ministre de la justice », afin que ce dernier manifeste, le cas échéant, que « des poursuites judiciaires sont en cours sur les faits ayant motivé le dépôt de la proposition ». Dans cette hypothèse, la proposition de résolution ne peut être mise en discussion.

Interrogé par la Présidente de l’Assemblée nationale conformément au premier alinéa de l’article 139 précité, le garde des sceaux lui a fait savoir, dans un courrier en date du 12 février 2025, annexé au présent rapport, qu’il n’avait pas « connaissance de procédure en cours susceptible de recouvrir le périmètre de la commission d’enquête parlementaire envisagée ».

L’article 64 de la Constitution consacre le principe d’indépendance de l’autorité judiciaire, et la jurisprudence du Conseil constitutionnel rattache le respect des droits de la défense et en particulier le principe d’impartialité et d’indépendance des juridictions ([6]) à l’article 16 de la Déclaration des droits de l’homme et du citoyen de 1789.

La commission d’enquête devra donc veiller, tout au long de ses travaux, à ne pas faire porter ses investigations sur des faits relevant de la compétence exclusive de l’autorité judiciaire. Il s’agit d’une précaution nécessaire au regard du caractère exorbitant des prérogatives reconnues aux commissions d’enquête parlementaires par l’article 6 de l’ordonnance du 17 novembre 1958 précitée :

« Toute personne dont une commission d’enquête a jugé l’audition utile est tenue de déférer à la convocation qui lui est délivrée, si besoin est, par un huissier ou un agent de la force publique, à la requête du président de la commission. À l’exception des mineurs de seize ans, elle est entendue sous serment. Elle est, en outre, tenue de déposer [...].

« La personne qui ne comparaît pas ou refuse de déposer ou de prêter serment devant une commission d’enquête est passible de deux ans d’emprisonnement et de 7 500 euros d’amende. Le refus de communiquer les documents visés au deuxième alinéa du II est passible des mêmes peines. Dans les cas visés aux deux précédents alinéas, le tribunal peut en outre prononcer l’interdiction, en tout ou partie, de l’exercice des droits civiques. »

Compte tenu de l’ensemble de ces remarques, et sous les réserves tenant aux actions judiciaires en cours et au respect de la séparation des pouvoirs, il résulte de l’analyse qui précède le caractère juridiquement recevable de la proposition de résolution.

II.   L’opportunitÉ de la crÉation de la commission d’enquÊte

 Si la santé mentale des jeunes s’impose aujourd’hui comme un enjeu de santé publique incontestable, et malgré un large consensus quant à l’influence délétère des réseaux sociaux sur le bien‑être psychique des jeunes gens, force est de constater que ces derniers sont de plus en plus exposés aux réseaux sociaux et que la souffrance psychique des mineurs et jeunes adultes connaît une nette aggravation depuis quelques années. Chez les 18-24 ans, la prévalence des épisodes dépressifs est passée de 11,7 % à 20,8 % entre 2017 et 2021, soit une hausse de 77 % en quatre ans ([7]). Les jeunes femmes sont spécialement touchées : les hospitalisations liées aux gestes auto-infligés (tentatives de suicide et autoagressions) chez les femmes âgées de 10 à 19 ans ont progressé de 133 % depuis 2020 et de 570 % depuis 2007 ([8]). Dans le même temps, la consommation de médicaments psychotropes chez les adolescents et les jeunes adultes a augmenté de façon inquiétante : en 2023, 936 000 jeunes de 12 à 25 ans ont bénéficié du remboursement d’au moins un psychotrope. Cela correspond à 144 000 patients de plus qu’en 2019, soit une augmentation de 18 %, touchant elle aussi particulièrement les jeunes femmes ([9]).

● Dans ce contexte, le réseau social TikTok incarne un paradoxe mortifère singulier puisque ce réseau social celui-ci s’avère particulièrement addictif avec un temps moyen par utilisateur passé sur la plateforme de 95 minutes (soit quatre fois plus que Snapchat et trois fois plus que Twitter) ([10]) , tout en confrontant le public le plus vulnérable aux biais de fonctionnement les plus délétères des réseaux sociaux. En effet, ce paradoxe tient au fait que TikTok se distingue d’une part par une audience particulièrement juvénile, et d’autre part par la faiblesse remarquable de la modération des contenus et à l’inverse une amplification de l’exposition aux contenus violents, à caractère sexuel et relatifs à la souffrance psychique. En effet, la commission d’enquête sénatoriale précitée ([11]) a permis d’établir l’enjeu de santé publique que recouvre l’utilisation du réseau social TikTok par la jeunesse. Selon le rapport, 70 % des utilisateurs français ont moins de 24 ans, et près de la moitié de la classe d’âge 16-25 ans (40 %) sont des utilisateurs quotidiens. De plus, les enfants de 4 à 18 ans consacrent en moyenne quotidiennement 1 heure 47 à l’utilisation de TikTok. Ce dernier chiffre ne peut qu’interpeller dans la mesure où l’application est interdite en France aux enfants de moins de 13 ans.

● Les premières conclusions et recommandations de cette commission d’enquête sur l’influence de TikTok, bien qu’essentielles et structurantes pour améliorer la connaissance du phénomène et permettre des avancées en la matière, n’a pas abordé de manière spécifique les répercussions psychologiques de TikTok sur les mineurs. Il semble dès lors qu’une nouvelle commission d’enquête centrée sur ce sujet permettrait d’utiles approfondissements. De plus, ses conclusions rendues en 2023 présentent d’ores et déjà une relative ancienneté par rapport à la rapidité qui caractérise l’évolution des usages numériques – notamment au sein de la jeune génération – et du rythme effréné de développement des algorithmes.

● L’exposé des motifs mentionne plusieurs études formulant diverses hypothèses qui auront vocation à structurer les axes de travail de la commission d’enquête. Ainsi, cette commission, une fois constituée, s’emploiera à recueillir les informations nécessaires et actuelles permettant d’établir – le cas échéant – la réalité des risques associés à un usage de TikTok par les mineurs, ainsi que les moyens efficaces d’y remédier.

Parmi les hypothèses de travail, il s’agira notamment de déterminer :

– si l’application propose davantage de contenus dangereux aux individus vulnérables comme l’affirme une étude publiée en décembre 2022 par le Center for Countering Digital Hate ([12]). Ainsi, comparativement à des profils standards, les utilisateurs manifestant un intérêt pour les questions de santé mentale seraient douze fois plus exposés à des vidéos traitant du suicide ;

– si l’application encourage le passage à l’acte suicidaire et l’automutilation, comme le dénonce un rapport de l’organisation non gouvernementale Amnesty International publié en novembre 2023 ([13]) ;

– si l’application amplifie la mise à disposition de contenus hyper sexualisés qui déstabiliseraient les utilisateurs les plus jeunes et favoriserait le développement de troubles tels la dysmorphophobie ([14]), ou encore les désordres alimentaires comme l’indique le rapport de la commission d’enquête sénatoriale publié en juillet 2023 sur l’influence du réseau social TikTok ([15]).

● Le dispositif de la présente proposition de résolution souligne qu’il s’agira en outre « de proposer des dispositifs concrets et de grande envergure pour protéger nos jeunes, dans la lignée de ceux proposés par la commission du Sénat » tout en soulignant la nécessité « de se concentrer sur les effets de TikTok sur la santé des enfants et adolescents ». À cette fin, la commission d’enquête aurait notamment vocation à :

– étudier les dispositifs de captation de l’attention utilisés par TikTok, ainsi que leurs effets psychologiques, en particulier sur les mineurs ;

– examiner les risques liés à l’exposition des jeunes utilisateurs aux contenus dangereux et à l’addiction numérique sur la plateforme ;

– proposer des mesures concrètes visant à protéger les mineurs, notamment en matière de régulation des contenus, de sécurité numérique et de modération des pratiques de la plateforme.

L’opportunité de la création d’une commission d’enquête sur les effets psychologiques de TikTok sur les mineurs résulte donc à la fois de l’enjeu de santé publique que représente la place prépondérante de ce réseau social dans les usages numériques des jeunes dans un contexte de nette dégradation de la santé mentale des mineurs dont il est aujourd’hui communément admis qu’elle est pour partie liée à une forte exposition aux réseaux sociaux.

Cette commission d’enquête permettra d’utiles approfondissements et une actualisation de travaux déjà engagés ces dernières années, dans une approche à la fois transversale à l’ensemble des risques et centrée sur les effets psychologiques chez les utilisateurs mineurs.

L’opportunité de cette commission d’enquête est d’autant plus évidente qu’au-delà des constats qu’elle permettra d’opérer, le travail mené sera à même de faire émerger des solutions pratiques aux problèmes soulevés.

III.   Les MODIFICATIONS APPORTÉES PAR LA commission

La commission des affaires sociales a modifié l’alinéa 2 de l’article unique de la proposition de résolution en adoptant trois amendements de M. Arthur Delaporte et plusieurs de ses collègues du groupe Socialistes et apparentés :

● l’amendement AS18, qui ajoute la mention d’une évaluation quantitative, par la commission d’enquête, des dispositifs de captation de l’attention utilisés par TikTok ;

● l’amendement AS8, qui illustre les effets psychologiques étudiés par la commission d’enquête par l’ajout d’une référence aux « pensées » et aux « comportements suicidaires » ;

● l’amendement AS9, qui précise que les effets psychologiques étudiés comprennent notamment les répercussions sur les « relations sociales intrafamiliales et extrafamiliales ».

La commission a adopté la proposition de résolution ainsi modifiée.

 


—  1  —

   Travaux de la commission

Lors de sa seconde réunion du mercredi 5 mars 2025, la commission examine la proposition de résolution tendant à la création d’une commission d’enquête sur les effets psychologiques de TikTok sur les mineurs (n° 783) (Mme Laure Miller, rapporteure) ([16]).

Mme la rapporteure. « J’ai empêché mes enfants d’aller trop sur les réseaux sociaux avant qu’ils n’aient 14 ans ou 15 ans et j’essayais de suivre ce qu’ils faisaient. Et, je pense qu’il faut en faire plus dans ce domaine. On a été un peu naïfs sur l’impact de ces outils » a déclaré Bill Gates lors d’une interview sur France Inter le 3 février dernier. Malgré un large consensus quant à l’influence délétère des réseaux sociaux sur le bien-être psychique des jeunes gens, force est de constater que ces derniers sont de plus en plus exposés aux réseaux sociaux.

Actuellement, 35 % des jeunes âgés de 7 à 12 ans possèdent un smartphone. Ce taux atteint 89 % entre 13 et 19 ans. Les dernières études de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail et de Santé publique France font état d’un temps moyen d’écran quotidien en augmentation continue. Entre 2014 et 2016, il était estimé à 4 heures 11 par jour pour les mineurs. Une étude de l’association e‑Enfance, rendue publique fin 2023, montre que 86 % des jeunes âgés de 8 à 18 ans sont inscrits sur les réseaux sociaux. L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a signalé que 45 % des jeunes de 11 et 12 ans étaient inscrits sur l’application TikTok.

Dans le même temps, la santé mentale des jeunes s’impose comme un enjeu majeur de santé publique : sa dégradation fait figure d’inexorable fatalité. La très récente mission d’information sur la prise en charge des urgences psychiatriques, rapportée par Nicole Dubré‑Chirat et Sandrine Rousseau, a montré que la prévalence des épisodes dépressifs avait augmenté de 77 % entre 2017 et 2021 chez les 18-24 ans. Les jeunes femmes sont particulièrement touchées : les hospitalisations liées aux tentatives de suicide et aux automutilations ont progressé de 133 % depuis 2020 et de 570 % depuis 2007 chez les jeunes filles âgées de 10 à 19 ans. La consommation de médicaments psychotropes par les adolescents et les jeunes adultes a crû de près de 20 % entre 2019 et 2023 et près d’un million de jeunes âgés de 12 à 25 ans ont bénéficié du remboursement d’au moins un psychotrope en 2023.

Dans ce contexte, le réseau social TikTok incarne un paradoxe particulièrement morbide, puisqu’il confronte le public le plus vulnérable aux biais de fonctionnement les plus délétères. En effet, TikTok se distingue par une audience particulièrement juvénile, mais également par la faiblesse remarquable de la modération des contenus et, à l’inverse, par l’amplification de l’exposition aux contenus violents, à caractère sexuel et relatifs à la souffrance psychique.

Selon la commission d’enquête sénatoriale sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence, qui a mené ses travaux en 2023, 70 % des utilisateurs français ont moins de 24 ans, et près de la moitié des 16-25 ans sont des utilisateurs quotidiens. Dernier chiffre, les enfants âgés de 4 à 18 ans consacrent en moyenne 1 heure 47 par jour à l’utilisation de TikTok : cela ne peut qu’interpeller, dans la mesure où l’application est interdite en France aux enfants âgés de moins de 13 ans.

Je vais tâcher de vous convaincre que la proposition de résolution que je défends, tendant à la création d’une commission d’enquête sur les effets psychologiques de TikTok sur les mineurs, est non seulement recevable, mais qu’elle est aussi opportune, sinon indispensable.

Selon l’article 6 de l’ordonnance du 17 novembre 1958 et les articles 137 à 139 du Règlement de l’Assemblée nationale, une commission d’enquête doit porter sur des faits précis ou sur la gestion d’un service public. On peut difficilement prétendre que ce n’est pas le cas ici, puisqu’il s’agit de se focaliser sur les liens existants entre le paramétrage et les usages d’un réseau social et les répercussions psychiques associées chez une catégorie spécifique d’utilisateurs : l’objet de la commission d’enquête est donc à la fois précis et circonscrit. Je détaille par ailleurs dans mon rapport les différentes hypothèses de travail que la commission d’enquête s’attachera à explorer.

En outre, une commission d’enquête ne doit pas porter sur des faits pour lesquels une procédure judiciaire est en cours. Or la société TikTok fait l’objet de poursuites judiciaires mettant en cause la responsabilité du réseau social dans la dégradation de la santé mentale de plusieurs adolescentes et le suicide de deux d’entre elles. Une action en responsabilité, encore pendante devant le tribunal judiciaire de Créteil, met en cause la société TikTok. Néanmoins, interrogé sur ce point par la Présidente de l’Assemblée nationale, conformément aux dispositions de l’article 139 du Règlement, le garde des sceaux a répondu, dans un courrier en date du 12 février dernier, qu’il n’avait pas « connaissance de procédure en cours susceptible de recouvrir le périmètre de la commission d’enquête parlementaire envisagée ». La commission devra toutefois veiller, tout au long de ses travaux, à ne pas faire porter ses investigations sur des faits relevant de la compétence exclusive de l’autorité judiciaire.

Enfin, une commission d’enquête ne doit pas porter sur un objet pour lequel les pouvoirs d’enquête reconnus aux parlementaires ont été mobilisés au cours des douze derniers mois. Depuis le début de la législature, aucune commission d’enquête n’a porté sur les effets psychologiques des réseaux sociaux, ni sur la santé mentale des mineurs. Deux commissions d’enquête en cours abordent la santé mentale des mineurs de manière indirecte : l’une porte sur les violences commises dans les secteurs du cinéma, de l’audiovisuel, du spectacle vivant, de la mode et de la publicité, et l’autre, que je connais bien pour avoir l’honneur de la présider, étudie les manquements des politiques publiques de protection de l’enfance. Toutes deux présentent un lien très indirect avec l’objet de la présente proposition de résolution.

Maintenant que nous avons traité le sujet de la recevabilité, venons-en à la question de l’opportunité d’une commission d’enquête sur les effets psychologiques de TikTok sur les mineurs.

La commission d’enquête sénatoriale sur l’influence de TikTok n’a pas abordé de manière spécifique les répercussions psychologiques de ce réseau social sur les mineurs. Par ailleurs, elle a rendu ses conclusions en 2023, date relativement lointaine compte tenu de la rapidité de développement des algorithmes et de l’essor de TikTok auprès des jeunes.

La commission d’enquête s’emploiera à confirmer, ou à infirmer, les hypothèses formulées par plusieurs études, lesquelles constitueront autant d’axes de travail.

Tout d’abord, l’application propose-t-elle davantage de contenus dangereux aux individus vulnérables, comme l’affirme une étude publiée en décembre 2022 ? Comparativement à des profils standards, les utilisateurs manifestant un intérêt pour les questions de santé mentale seraient douze fois plus exposés à des vidéos traitant du suicide. L’application encourage-t-elle le passage à l’acte suicidaire et à l’automutilation, comme le dénonce un rapport d’Amnesty International de novembre 2023 ? L’application amplifie‑t‑elle la mise à disposition de contenus hypersexualisés, qui déstabiliseraient les utilisateurs les plus jeunes et favoriseraient le développement de troubles tels que la dysmorphophobie, à savoir le trouble mental qui affecte la perception de son propre corps et notamment de ses défauts, ou encore les désordres alimentaires, comme l’indique le rapport de la commission d’enquête sénatoriale ?

La présente proposition de résolution donne à la commission d’enquête l’objectif de proposer des dispositifs concrets et de grande envergure pour protéger nos jeunes. Elle aura vocation à étudier les outils de captation de l’attention utilisés par TikTok ainsi que leurs effets psychologiques, en particulier sur les mineurs ; elle examinera les risques liés à l’exposition des jeunes utilisateurs aux contenus dangereux et à l’addiction numérique sur la plateforme ; elle proposera des mesures concrètes visant à protéger les mineurs, notamment en matière de régulation des contenus, de sécurité numérique et de modération des pratiques de la plateforme.

Il me semble que ni la recevabilité ni l’opportunité de la proposition de résolution ne font débat, ce dont atteste le nombre relativement élevé d’amendements que vous avez déposés. Je vous appelle donc, mes chers collègues, à adopter cette proposition de résolution, aujourd’hui en commission et la semaine prochaine en séance publique, et à participer activement à ses travaux pour aborder, lors des auditions, l’ensemble des points qui vous intéressent.

M. le président Frédéric Valletoux. Nous en venons aux interventions des orateurs des groupes.

Mme Caroline Parmentier (RN). TikTok est un réseau social à part, du fait des ravages qu’il occasionne chez les jeunes et même les très jeunes. En effet, 45 % des enfants âgés de 11 et 12 ans utilisent TikTok, alors que son accès est interdit aux moins de 13 ans. Des enfants âgés de 4 à 18 ans y passent en moyenne 2 heures par jour. Les effets psychologiques de cette plateforme sur les jeunes constituent une menace pour la santé publique.

Grâce à son algorithme de recommandations très performant, TikTok parvient à maintenir des heures durant ses utilisateurs devant leur écran. Cette captation de l’attention, qui tourne à l’addiction, s’accompagne d’une mise en avant et d’un enfermement des utilisateurs dans des contenus dangereux ou hypersexualisés. En novembre 2024, sept familles du collectif Algos Victima ont déposé plainte contre TikTok devant la justice française pour provocation au suicide et propagande ou publicité des moyens de se donner la mort. Parmi les sept adolescentes victimes, deux ont mis fin à leurs jours : Charlize et Marie, qui étaient âgées de 15 ans.

Dans son documentaire sur l’emprise numérique, la réalisatrice Élisa Jadot, qui s’était inscrite sur TikTok avec un profil fictif, dénonce les tutoriels vidéo qui lui indiquaient comment se pendre dans sa chambre. La bulle de filtres de TikTok peut avoir des conséquences dramatiques : harcèlement, dépression, troubles du comportement alimentaire, automutilations et pensées suicidaires. Comparativement à des profils standards, les utilisateurs manifestant un intérêt pour les questions de santé mentale peuvent se voir proposer dans leur fil douze fois plus de vidéos traitant du suicide.

Le groupe Rassemblement National soutient la proposition de résolution et la création d’une commission d’enquête chargée de se concentrer sur les effets de TikTok sur la santé des enfants et des adolescents. TikTok ne fait pas seulement le bruit d’une bombe à retardement, il en est une.

M. Jean-François Rousset (EPR). Je remercie notre collègue Laure Miller de s’emparer d’un sujet essentiel pour la protection des jeunes confrontés à la violence, celui de l’impact des réseaux sociaux. La santé mentale, grande cause nationale de 2025, a connu, selon Santé publique France, une forte dégradation entre 2018 et 2022 chez les enfants âgés de 11 à 17 ans. Environ 15 % des collégiens et des lycéens présentent un risque élevé de dépression. Par ailleurs, 90 % des adolescents âgés de 12 à 17 ans déclarent posséder un téléphone mobile, selon l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse. Le temps moyen hebdomadaire passé sur internet par les 13-19 ans dépasse 15 heures.

Dans ce contexte, la création de cette commission d’enquête permettra d’évaluer précisément l’impact négatif du réseau social TikTok sur le développement de la santé mentale des plus jeunes, sachant que ces derniers y passent en moyenne 1 heure 47 par jour. Cette application, qui compte 22 millions d’utilisateurs en France, est souvent caractérisée par un manque d’encadrement, le mésusage des données et la désinformation. L’objectif sera d’identifier les risques liés à son utilisation et d’envisager des mesures de protection des jeunes.

Le groupe Ensemble pour la République soutiendra l’adoption de cette proposition de résolution.

M. Arnaud Saint-Martin (LFI-NFP). Le constat des effets néfastes chez les mineurs de l’utilisation prolongée et prématurée des réseaux sociaux numériques, notamment de TikTok, fait consensus et je m’en réjouis.

70 % des utilisateurs de TikTok en France ont moins de 24 ans et 40 % des 1625 ans l’utilisent quotidiennement. Selon l’Arcom, TikTok est une plateforme qui façonne des habitus socialement différenciés mais propres à une classe d’âge. Comme l’ensemble des réseaux sociaux, elle présente des risques psycho-sociaux, pas simplement psychologiques. Les troubles de santé mentale chez les mineurs sont accentués par l’usage des plateformes numériques, par l’enfermement dans des bulles par le biais de filtres et de dark patterns.

Une commission enquêtant sur ces réalités est donc bienvenue, mais son périmètre nous paraît en l’occurrence insuffisant. Pourquoi se concentrer sur un seul réseau social, quand bien même il est très visible dans l’espace public ? Les reels sur Instagram et sur Facebook fonctionnent pourtant de la même manière et s’en inspirent d’ailleurs. On ne peut pas s’intéresser à l’usage des réseaux sociaux et à leurs conséquences sur la santé mentale des jeunes sans évoquer les Gafam‑X. L’entreprise chinoise a sa part de responsabilité, mais les entreprises américaines doivent également, à notre sens, entrer dans le champ de la commission d’enquête, d’autant plus lorsque le dirigeant de X, officieux numéro 2 de l’exécutif des États-Unis, promet de lever les contrôles et d’accélérer la captation des esprits et lorsque le dirigeant de Facebook fait part de son intention de suivre son exemple. Notre groupe défendra un amendement en ce sens.

Par ailleurs, il nous semble essentiel que le lien avec l’école soit également questionné. Alors que de nombreux pays ont entrepris une éducation à la sobriété numérique dès le plus jeune âge, la France développe de plus en plus l’utilisation du numérique à l’école, édulcorant les discours de prévention dans la promotion de l’éducation numérique.

Au-delà de leurs effets psycho-sociologiques, il faut envisager les réseaux sociaux dans leur globalité. Ce sera le sens de nos amendements.

M. Arthur Delaporte (SOC). « Popops les gars, ils sont devant, on est devant, Coco Pops ! » Vous ne rêvez pas, je viens de vous citer un extrait d’un live TikTok de Julien Tanti – 900 000 abonnés, 5 millions de « J’aime », et sans doute beaucoup, beaucoup de mineurs. À l’instant, Coco Pops et Popops viennent de donner chacun un lion, soit 500 euros, d’un claquement de doigts.

Après la promulgation de la loi visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, nombre d’entre eux se sont reportés sur TikTok afin de diversifier leurs sources de revenus. Audrey Chippaux décrit parfaitement les mécanismes dans son ouvrage Derrière le filtre : les réseaux sociaux suscitent un sentiment d’appartenance à une communauté, une reconnaissance sociale, de l’adrénaline, mais surtout une escalade des engagements. Chaque don mène à un engagement toujours plus fort, et des mineurs aussi y mettent de l’argent.

Les dangers des plateformes sont évidemment protéiformes. Je suis, comme vous tous, très touché par ces histoires d’enfants qui ont pu attenter à leur vie en raison d’un algorithme pernicieux. Avec Stéphane Vojetta ,nous avons rencontré l’avocate Laure Boutron‑Marmion, qui a fondé le collectif Algos Victima que vous avez cité. Nous soutenons les familles qui en font partie et l’engagement de cette démarche va dans le bon sens.

Toutes les 2,6 minutes, une vidéo sur le suicide ; toutes les 8 minutes, des contenus sur la perte de poids, l’automutilation : cette application représente un danger pour les mineurs, mais pas seulement. C’est un sujet de santé publique, notamment lorsque des tiktokeurs vantent les effets miraculeux de graines pour lutter contre les troubles du déficit de l’attention avec ou sans hyperactivité, ou certains produits aux vertus amincissantes qui présentent en réalité de graves dangers. C’est aussi un sujet de société lorsque la plateforme déverse des trends antiféministes – je pense à la mode Tradwife. C’est un sujet politique : les ingérences sont nombreuses, et pas seulement dans le cas de la Roumanie. C’est enfin un sujet fiscal, car ce qui est présenté sous la forme de cadeaux constitue bel et bien des revenus.

Bref, le champ est vaste et nous avons besoin d’une commission d’enquête pour garantir un environnement numérique plus sain.

M. Thibault Bazin (DR). Le groupe Droite Républicaine soutient la création de la commission d’enquête et votera la proposition de résolution. Toutefois, plusieurs procédures judiciaires étant en cours, cette commission devra s’abstenir de cibler ces affaires et se focaliser sur le fonctionnement de la plateforme et sur ses effets, notamment sur les mineurs.

Fabien Di Filippo et moi souhaitons évoquer certaines particularités de TikTok qui peuvent accentuer sa dangerosité, comme l’ont montré plusieurs études.

Tout d’abord, l’entonnoir algorithmique a des effets délétères du point de vue cognitif et social, tels que la sédentarité, les troubles du sommeil, les troubles de l’attention, l’anxiété. Il s’agit du réseau social sur lequel les internautes français passent le plus de temps – une heure et demie en moyenne par jour, d’après une étude Ipsos de mars 2023. Des psychologues pointent le caractère addictif de TikTok ; plus inquiétant encore, un rapport de décembre 2022 du Center for Countering Digital Hate révèle que l’algorithme recommanderait des contenus dangereux aux personnes vulnérables.

Deuxièmement, le système de vérification d’âge est défaillant : alors que TikTok est interdit aux moins de 13 ans, 45 % des 11-12 ans ont un compte.

Troisièmement, la régulation manque face aux contenus hypersexualisés et à la désinformation. Une étude de Global Witness avait ainsi révélé que 90 % des contenus de désinformation créés pour l’étude avaient été validés par TikTok.

Quatrièmement, des contenus dangereux tels que des défis risqués ou des incitations au suicide sont mis en avant. Alors que l’année 2025 est dédiée à la santé mentale, comme l’a voulu l’ancien premier ministre Michel Barnier, nous devons réagir face aux vidéos qui incitent à relever des défis particulièrement dangereux ou au fil « pour toi » qui s’ouvre par défaut lorsqu’on lance l’application, qui peuvent entraîner des jeunes dans des spirales de contenus qui idéalisent, voire encouragent les pensées dépressives, l’automutilation et le suicide.

Il y va de la santé de nos jeunes et de leur protection, qui doivent tous nous rassembler.

Mme Sandrine Rousseau (EcoS). Je salue la volonté de la rapporteure de créer une commission d’enquête sur l’impact psychologique de TikTok sur les mineurs.

Le rapport sur la prise en charge des urgences psychiatriques que j’ai rédigé avec Nicole Dubré-Chirat montre une situation d’urgence. Dans ce cadre, nous avons visité des hôpitaux, discuté avec des soignants, entendu les cris d’alerte des familles et trop souvent, les réseaux sociaux revenaient dans les discussions.

TikTok, Instagram, Snapchat, ces plateformes façonnent le rapport des jeunes à eux-mêmes et au monde, souvent avec une violence inouïe. Les chiffres de la souffrance psychique des jeunes explosent ; ceux des tentatives de suicide chez les adolescentes sont catastrophiques ; la consommation de psychotropes chez les jeunes grimpe en flèche. Ce ne sont pas des statistiques abstraites, ce sont des vies, sur lesquelles TikTok a une influence directe.

En effet, TikTok n’est pas un réseau social comme les autres. Son algorithme hyperpuissant capte l’attention des jeunes comme aucun autre : 1 heure 47 par jour en moyenne chez les 4-18 ans, ce chiffre est effrayant. On peut y scroller à l’infini, regarder des vidéos calibrées pour enchaîner dopamine et frustration, avec pour conséquence une capacité de concentration qui s’effondre, une mémoire qui se fragmente et un sommeil qui disparaît.

Mais surtout, TikTok valorise le culte de l’apparence et de la performance. Il impose des normes inatteignables, amplifie la comparaison sociale, distord l’image des corps. La pression est constante, l’anxiété explose, la dysmorphie et les troubles alimentaires se généralisent. Nous avons croisé beaucoup de jeunes victimes lors de notre tour de France.

TikTok, par un effet de bulle, renforce la vulnérabilité de certains jeunes. Des études ont montré que ceux qui manifestent un mal-être reçoivent douze fois plus de vidéos sur le suicide et l’automutilation que les autres. Cette plateforme, qui se targue de connecter les jeunes, pousse certains à la destruction et à l’autodestruction.

Et que dire de la haine en ligne ! Elle est omniprésente, elle détruit l’estime de soi, enferme dans la peur et l’isolement. Elle ne concerne pas que les jeunes – je suis bien placée pour le savoir – mais pour eux, elle survient au pire moment, celui où l’on construit son identité, où chaque mot peut peser comme une condamnation.

Mon groupe soutient la création de cette commission d’enquête et attend beaucoup de ses conclusions. Nous remercions la rapporteure pour son initiative.

M. le président Frédéric Valletoux. Nous en venons aux interventions des autres députés.

Mme Ségolène Amiot (LFI-NFP). Je remercie Mme la rapporteure d’avoir mis ce sujet hautement important sur la table et en profite pour pousser un coup de gueule.

Au cours des deux dernières années, nous avons eu au moins quatre occasions pour substituer à l’autorégulation des plateformes des normes fixées par l’État : dans la loi visant à garantir le respect du droit à l’image des enfants, la loi visant à sécuriser et à réguler l’espace numérique, la proposition de loi relative à la prévention de l’exposition excessive des enfants aux écrans ou encore la loi sur les influenceurs. Nous avons fait des propositions, par exemple, pour interdire l’inscription sur les réseaux sociaux au-dessous d’un certain âge, qui à chaque fois ont été rejetées. À chaque fois on entend les mêmes discours et mises en garde sur le pire du pire pour nos enfants, mais quand il s’agit de voter, il n’y a plus personne !

Il va falloir passer aux actes. Un rapport, c’est bien. Il nous apportera des chiffres, des informations dont manifestement nous disposons déjà largement. Mais qu’en fera-t-on ? Allons-nous enfin protéger nos enfants ?

Mme la rapporteure. Je remercie l’ensemble des groupes pour leur soutien à cette proposition de résolution. Je suis ravie que nous partagions le constat et manifestions la même inquiétude pour l’avenir de notre jeunesse.

J’entends parfaitement la volonté d’élargir le champ de la commission d’enquête, que traduisent aussi nombre d’amendements.

Vous avez raison, madame Amiot, les travaux d’une commission d’enquête peuvent aboutir à un rapport riche en informations mais qui manque de pistes concrètes pour changer véritablement la donne. Je pense que pour éviter cet écueil, l’objet de la commission d’enquête doit être très ciblé. Plus il sera circonscrit, plus nous pourrons apporter des réponses et faire passer un message simple.

La commission d’enquête a un double objectif. Le premier est de déterminer précisément l’impact de TikTok sur la santé de nos jeunes. Si vous interrogez les gens dans la rue, ils savent que c’est un réseau social mais ils ne savent pas ce qu’il y a derrière ni quels peuvent être ses effets sur les enfants ou des jeunes qui sont vulnérables. La commission doit être l’occasion d’émettre un message politique transpartisan très fort sur le sujet.

Ensuite, il est vrai que, si les discours enjoignant aux pouvoirs publics de réguler les réseaux sociaux pour protéger nos enfants abondent, force est de constater que non, nos enfants ne sont pas protégés. Je me suis amusée à me faire passer pour une mineure en utilisant une photo d’une jeune fille libre de droits, et j’ai pu créer mon compte sans aucune difficulté. Les moyens de modération et les contrôles que TikTok et d’autres réseaux sociaux affichent sont dans les faits très faciles à contourner.

Le second objectif de la commission est d’examiner les possibilités d’intervention très concrètes des pouvoirs publics, y compris du législateur, pour changer la donne et faire en sorte de protéger vraiment nos enfants.

Je conviens bien que d’autres réseaux sociaux posent problème. Si la commission d’enquête trouve les moyens de protéger notre jeunesse et d’interdire TikTok aux plus jeunes, nous pourrons d’ailleurs les répliquer pour d’autres réseaux sociaux. Mais pour être efficaces, nous ne devons pas nous disperser : le temps dont nous disposerons sera très court.

Article unique

Amendement AS18 de M. Arthur Delaporte

M. Arthur Delaporte (SOC). Il s’agit d’ajouter aux missions de la commission d’enquête celle de quantifier le nombre d’utilisateurs, notamment par tranches d’âge. Dans une classe de CM1-CM2 que j’ai visitée, près de 40 % des élèves avaient un compte TikTok. Les chiffres font l’objet de débats, et l’on ne peut pas se fier à ceux de TikTok puisque nombre de jeunes font de fausses déclarations. C’est une question importante.

Mme la rapporteure. Disposer de données de quantification les plus nombreuses et les plus précises possible est effectivement important. Avis favorable.

La commission adopte l’amendement.

Amendement AS12 de M. Arthur Delaporte

M. Arthur Delaporte (SOC). Il s’agit d’élargir le champ de la commission d’enquête à l’ensemble des plateformes, mais la rapporteure a déjà répondu sur ce point.

Mme la rapporteure. En effet, je vous invite à retirer cet amendement. Je comprends parfaitement votre intention, mais le champ doit être le plus ciblé possible. En outre, TikTok est un réseau social très singulier, avec un algorithme sans équivalent qui enferme le mineur dans une espèce de bulle délétère. Enfin, les réponses que nous aurons apportées pourront, le cas échéant, être transposées aux autres réseaux sociaux.

L’amendement est retiré.

Amendement AS16 de M. Arthur Delaporte

M. Arthur Delaporte (SOC). Cet amendement vise à ajouter une réflexion sur les algorithmes de diffusion d’affrontement verbal de plusieurs utilisateurs, pouvant générer des gains financiers.

Mme la rapporteure. Demande de retrait, car ce sujet sera bien évidemment abordé. Il ne me semble pas utile d’alourdir l’objet de la commission.

L’amendement est retiré.

Amendement AS8 de M. Arthur Delaporte

M. Arthur Delaporte (SOC). Il est important de réfléchir, parmi les effets psychologiques de TikTok, aux pensées et comportements suicidaires.

Mme la rapporteure. Je suis favorable à cet amendement, dans la mesure où il permet d’expliciter l’impact psychologique sur les jeunes, sans être limitatif.

La commission adopte l’amendement.

Amendement AS9 de M. Arthur Delaporte

M. Arthur Delaporte (SOC). Il s’agit d’inclure dans le champ d’investigation les relations intrafamiliales et extrafamiliales. Les réseaux sociaux peuvent en effet avoir des effets désocialisants.

Mme la rapporteure. La formulation n’exclut pas l’étude des effets d’autre nature, donc avis favorable.

La commission adopte l’amendement.

Amendement AS1 de M. Arnaud Saint-Martin

M. Arnaud Saint-Martin (LFI-NFP). Cet amendement vise à étendre le périmètre de la commission d’enquête. En effet, certains mécanismes que vous avez évoqués tels que les algorithmes de renforcement sont communs à tous les réseaux sociaux. Nous pourrons ainsi établir des comparaisons entre les différentes plateformes et mieux comprendre leurs effets spécifiques, cette construction de bulles plus ou moins parallèles dans lesquelles les mineurs vont s’enfermer.

Si nous voulons faire œuvre utile, il faut vraiment élargir le spectre de l’enquête. Cela permettra de comprendre comment fonctionnent les mécanismes auxquels ont recours toutes les plateformes, notamment les dark patterns, ces mécanismes de trucage et de manipulation.

L’idée ne fait pas consensus mais soyons audacieux en nous ouvrant aux autres réseaux sociaux numériques qui partagent nombre de caractéristiques, vous l’avez dit.

Mme la rapporteure. Je m’engage à ce que nous examinions le sujet au cours des auditions. Mais en élargissant le périmètre, nous risquerions de perdre la boussole qui nous permettra de rendre la commission d’enquête la plus concrète et efficace possible.

Avis défavorable.

La commission rejette l’amendement.

Amendement AS2 de M. Arnaud Saint-Martin

M. Arnaud Saint-Martin (LFI-NFP). Dans le même esprit, il s’agit d’élargir le périmètre à tous les réseaux sous contrôle des Gafam-X que les adolescents utilisent aussi, de manière peut-être moins massive. Il faudra d’ailleurs quantifier l’usage de ces réseaux, en particulier par classe d’âge.

Les autres réseaux ont recours aux mêmes mécanismes de captation de l’attention et de monétisation – les reels d’Instagram ont été évoqués. Ils produisent tous des effets psycho-sociaux et pas simplement psychologiques. Il serait intéressant d’étudier les interactions qu’ils génèrent et les communautés qu’ils créent. Ces réseaux sont aussi marqués par des stratégies de monopolisation de l’attention idéologique – on pense à X – à destination des jeunes générations.

Une étude comparée de tous les réseaux serait donc très utile.

Mme la rapporteure. Je rappelle que nous disposons d’un temps très limité – six mois, pas un jour de plus – et que la fin de nos travaux coïncidera avec l’été, au cours duquel l’Assemblée est moins active. Le temps étant précieux, il me semble inopportun de nous disperser.

Par ailleurs, les solutions que nous proposerons à l’issue de nos travaux pourront certainement être transposées aux autres réseaux sociaux. Enfin, il me semble nécessaire de nous focaliser sur TikTok car ce réseau est utilisé par un public particulièrement jeune.

Avis défavorable.

La commission rejette l’amendement.

Amendement AS3 de M. Arnaud Saint-Martin

M. Arnaud Saint-Martin (LFI-NFP). Il s’agit de souligner l’importance du rôle joué par l’éducation pour sensibiliser les enfants et les jeunes aux mécanismes mis en œuvre par les acteurs du numérique qui peuvent engendrer un risque d’addiction.

En 2021, 63 % des moins de 13 ans avaient un compte sur les réseaux sociaux. Puisque l’usage des réseaux sociaux est de plus en plus précoce, en dépit de son interdiction avant 13 ans, il est impératif d’investir davantage dans l’éducation au numérique et dans la prévention des risques que présentent les différentes plateformes, dont TikTok.

Le code de l’éducation prévoit la formation des élèves à l’utilisation responsable des outils et des ressources numériques. Or, en raison du manque de moyens alloués à l’éducation nationale pour cette mission, mais aussi de la suppression sans concertation de la technologie en sixième et du manque structurel de professeurs pour enseigner cette discipline – c’est l’improvisation permanente –, les élèves ne bénéficient pas d’un enseignement à la hauteur sur cette question cruciale.

Par ailleurs, le recours aux outils éducatifs numériques à l’école, qui a bondi depuis le covid, est de plus en plus précoce. L’amendement invite donc à s’interroger sur le rôle, qui peut paraître paradoxal, de l’école dans le développement des addictions au numérique.

Mme la rapporteure. Je souscris à votre objectif. Toutefois, la prévention et l’apprentissage des usages numériques, deux missions qui ne sont peut-être pas très bien assurées aujourd’hui dans notre pays, feront évidemment partie des sujets abordés lors des auditions – je m’y engage. D’autre part, la rédaction de votre amendement semble préjuger des conclusions de la commission en imposant dès maintenant de « souligner l’importance du rôle de l’école ».

Mon avis sera donc défavorable.

La commission rejette l’amendement.

Amendement AS4 de M. Arnaud Saint-Martin

M. Arnaud Saint-Martin (LFI-NFP). Il s’agit d’inciter la commission à analyser l’influence psychologique et idéologique de l’ensemble des réseaux sociaux, en particulier de leurs dirigeants, sur les publics les plus jeunes.

Les algorithmes sont biaisés et les dirigeants ont tout loisir de favoriser la diffusion de contenus dangereux ou illégaux, qui peuvent affecter la santé mentale des mineurs, en mettant leur plateforme au service de leurs idées potentiellement nauséabondes.

Le collectif Lutte HSM que j’ai reçu dénonce des groupes masculinistes et racistes, qui s’en prennent à des femmes noires par le biais de communautés sur Twitter et s’adonnent au harcèlement en ligne sans que les signalements n’y changent grand-chose.

Le harcèlement en ligne raciste et sexiste fait des victimes : je pense à Ebony, Aya Nakamura, Léna Situations, Chloé Gervais, Elsa Bois ou encore Laulevy, qui se fait carrément harceler par l’entreprise Body Minute. Ces influenceuses touchent des publics parfois très jeunes, qui assistent à leur harcèlement en ligne, donc à la diffusion d’idées masculinistes et autres.

La commission d’enquête devrait s’intéresser à la responsabilité de chacun des propriétaires des plateformes dans la diffusion des contenus dangereux ou illégaux et proposer des solutions pour réduire leur influence.

Mme la rapporteure. Pourquoi se focaliser sur les seuls dirigeants de ces plateformes ? Des personnalités politiques ou des influenceurs ont aussi une responsabilité dans ce qu’ils peuvent diffuser sur les réseaux.

En outre, les conditions de recevabilité de la proposition de résolution imposent que la commission d’enquête n’empiète pas sur le pouvoir judiciaire. Elle ne sera pas un tribunal où sera accusé tel ou tel dirigeant.

Pour le dire un peu familièrement, l’amendement tape à côté de notre cible, raison pour laquelle j’émets un avis défavorable.

M. Arthur Delaporte (SOC). Pour venir en soutien de cet amendement, si n’importe lequel d’entre nous ouvre X, l’un des quatre premiers tweets suggérés sera un tweet d’Elon Musk ; et il y a une chance sur deux pour qu’il s’agisse d’un tweet de harcèlement, raciste ou problématique. Dans le cas de cette plateforme, l’accaparement par son dirigeant est manifeste. Il est intéressant de pointer de telles logiques, même si elles n’entrent pas complètement dans le champ que vous envisagez pour la commission, car elles ont des effets sur les mineurs.

M. Arnaud Saint-Martin (LFI-NFP). Pour comprendre ces effets, il faut s’intéresser à la source, à la matrice de ces phénomènes, de ces bulles. Il est dommage d’exclure du périmètre de la commission les mécanismes qui conduisent précisément aux phénomènes que vous entendez documenter.

Mme la rapporteure. Je suis sensible à vos arguments. Néanmoins, le fait de ne pas le mentionner dans le texte de la résolution ne nous empêchera pas d’étudier ce sujet dans le cadre de nos auditions. Nous le ferons évidemment, je m’y engage. Et lorsque nous auditionnerons les responsables de TikTok, vous aurez tout loisir de les interroger.

La commission rejette l’amendement.

Amendement AS29 de M. Thierry Perez

M. Thierry Perez (RN). TikTok est l’une des plateformes les plus prisées par les jeunes Français. En 2023, les enfants y ont passé en moyenne 112 minutes par jour, ce qui en fait l’application la plus utilisée. Un professeur me confiait même que ses élèves de quatrième étaient nombreux à y passer plus de 4 heures par jour. Cette popularité s’accompagne de risques accrus liés à l’exposition à des contenus inappropriés ou dangereux.

L’amendement propose que la commission d’enquête évalue l’efficacité des dispositifs de modération de TikTok ainsi que la qualité de sa collaboration avec l’État français, notamment en ce qui concerne le signalement et le retrait rapide des contenus dangereux. Cette démarche est essentielle pour assurer une protection renforcée de nos jeunes citoyens face aux dangers potentiels du numérique.

Mme la rapporteure. Je partage votre objectif. Nous examinerons évidemment ce sujet dans le cadre des auditions, sans qu’il soit besoin de le préciser. À multiplier les sujets, on risque de laisser croire que ceux qui n’auraient pas été mentionnés sont exclus de fait et de rendre incohérent l’objet de la commission. Le cadre doit rester assez général.

Demande de retrait, ou avis défavorable.

La commission rejette l’amendement.

Amendement AS30 de M. Thierry Perez

M. Thierry Perez (RN). En 2024, l’Italie a infligé une amende de 10 millions d’euros à TikTok pour avoir laissé prospérer des vidéos menaçant la sécurité des mineurs. Au Royaume-Uni, TikTok a été condamné à 12,7 millions de livres sterling d’amende pour des violations de la vie privée d’enfants. Le présent amendement vise à préciser que la commission d’enquête étudiera la responsabilité de TikTok dans la diffusion de contenus dangereux ainsi que la possibilité d’aggraver les sanctions en cas de manquement, surtout concernant de jeunes mineurs. L’objectif est d’inciter la plateforme à adopter des mesures plus strictes pour assurer la sécurité de ses utilisateurs les plus vulnérables.

Mme la rapporteure. Encore une fois, nous aborderons évidemment cette question, mais il ne faut pas alourdir le champ de la commission d’enquête. Avis défavorable.

La commission rejette l’amendement.

Amendement AS19 de M. Arthur Delaporte

M. Arthur Delaporte (SOC). Il s’agit de préciser qu’il faudra évaluer la politique de prévention menée par le ministère de l’éducation nationale sur les dangers des réseaux sociaux et les moyens qui lui sont affectés. Dans la loi sur les influenceurs par exemple, nous avions ajouté des dispositions au code de l’éducation, s’agissant en particulier de la lutte contre le harcèlement, mais leur application est difficile. Malgré les efforts consentis, par le réseau Canopé notamment, la formation des professeurs avance lentement.

Mme la rapporteure. La commission d’enquête examinera ces aspects mais, pour les mêmes raisons que précédemment, avis défavorable.

L’amendement est retiré.

Amendements AS7, AS24, AS10, AS26 et AS21 de M. Arthur Delaporte

M. Arthur Delaporte (SOC). Les amendements AS7 et AS24 concernent également le harcèlement scolaire et extrascolaire : cela entre donc dans le champ des travaux de la commission. L’amendement AS10 tend à évaluer l’incidence de TikTok sur la santé physique, l’AS26 concerne les conduites addictives, l’AS21 les pratiques sectaires. Si cela entre dans le périmètre de la commission, je les retire.

Mme la rapporteure. Je vous confirme que nous en parlerons et je vous invite à les retirer.

Les amendements sont retirés.

Amendement AS14 de M. Arthur Delaporte

M. Arthur Delaporte (SOC). Cet amendement vise à évaluer les effets de TikTok sur le champ politique, notamment sur les élections en France. Ils sont massifs : en Roumanie, le candidat à l’élection présidentielle Calin Georgescu atteint 45 % d’intentions de vote dans les sondages contre 5 % il y a quelques mois. Dans un rapport récent, Viginum, le service de vigilance et de protection contre les ingérences numériques étrangères, montre les logiques à l’œuvre : l’ingérence peut s’effectuer par le biais des algorithmes, par celui du recrutement de certains influenceurs, mais aussi en ciblant les mineurs pour atteindre les comportements électoraux de leurs parents.

Mme la rapporteure. Avis défavorable.

Nous évoquerons sans doute l’influence de Tiktok sur les opérations électorales, mais le cœur du sujet reste la santé des mineurs – et ces derniers n’ont pas le droit de vote.

M. Arthur Delaporte (SOC). La commission ne pourra pas faire l’économie d’une réflexion sur ce sujet, qui est loin d’être anecdotique. De plus, les mineurs sont des citoyens en formation ; ceux qui ont 16 ou 17 ans seront bientôt des électeurs.

La commission rejette l’amendement.

Amendements AS15, AS17 et AS13 de M. Arthur Delaporte

M. Arthur Delaporte (SOC). L’amendement AS15 précise que la commission devra « examiner la conformité au droit fiscal et social français de TikTok, notamment sa juste contribution à l’impôt ». Les problèmes de fiscalité sont réels, qu’il s’agisse d’évitement de l’impôt ou de fiscalisation des revenus des influenceurs, déclarés en dollars. L’argent non perçu pourrait d’ailleurs financer la prévention. L’intérêt d’une commission d’enquête est aussi de rendre accessibles des documents qui normalement ne le sont pas.

L’amendement AS17 ajoute que la commission sera chargée de « qualifier le régime social et fiscal des revenus générés par les créateurs de contenus ». Certaines sommes présentées comme des cadeaux sont en effet des rémunérations. J’ajoute que cela servirait les travaux que je mène avec Stéphane Vojetta pour élaborer la deuxième proposition de loi « influenceurs » : en raison des déports d’Instagram vers TikTok par exemple, les influenceurs vivent de plus en plus de dons ; certains tendent à rendre leur communauté dépendante, provoquant même des dérives sectaires.

L’amendement AS13 concerne lui aussi les revenus.

Mme la rapporteure. Le problème est réel mais on s’écarte de l’objet de la commission d’enquête. Le rapport de la commission d’enquête du Sénat sur l’utilisation de TikTok évoque largement l’orientation et la stratégie du groupe, et vous pouvez approfondir le sujet avec M. Vojetta.

Avis défavorable.

M. Arthur Delaporte (SOC). Les mineurs sont vulnérables, et on les rend dépendants : le contrôle et la fiscalisation des sommes concernées sont donc loin d’être secondaires. De plus, la commission d’enquête dispose de pouvoirs que M. Vojetta et moi‑même n’avons pas.

Les amendements sont retirés.

Amendement AS20 de M. Arthur Delaporte

M. Arthur Delaporte (SOC). On trouve sur TikTok des produits et des services interdits, notamment parce qu’ils nuisent à la santé. La loi « influenceurs » proscrit par exemple la promotion des actes, procédés, techniques et méthodes à visée esthétique, mais malgré les signalements, la plateforme ne retire pas les contenus problématiques. Ses actions en la matière semblent insuffisantes. Cela affecte les mineurs, et la santé publique en général.

Mme la rapporteure. L’amendement est satisfait par la rédaction de l’alinéa 3, qui prévoit que la commission examinera l’exposition des jeunes aux contenus dangereux. Si nous commençons à détailler les contenus concernés, nous risquons d’en oublier.

Je vous suggère de retirer l’amendement.

L’amendement est retiré.

Amendements AS22 et AS25 de M. Arthur Delaporte

M. Arthur Delaporte (SOC). L’amendement AS22 précise que la commission d’enquête évaluera les actions des pouvoirs publics contre les contenus problématiques.

L’amendement AS25 concerne le respect de la propriété intellectuelle. Les influenceurs que j’ai récemment auditionnés se plaignent que leurs vidéos sont découpées et publiées par morceaux, notamment sur TikTok, ce qui provoque des piratages. Or ils ne parviennent pas à obtenir de la plateforme qu’elle retire les contenus piratés.

Mme la rapporteure. Nous pourrons évoquer ces sujets mais le lien est trop indirect pour les mentionner dans le texte. Avis défavorable.

Les amendements sont retirés.

Amendement AS11 de M. Arthur Delaporte

M. Arthur Delaporte (SOC). L’amendement AS11 vise à identifier les raisons pour lesquelles la Commission européenne n’a pas sanctionné TikTok, qui enfreint largement le règlement DSA, relatif à un marché unique des services numériques.

Mme la rapporteure. La question est pertinente mais la commission d’enquête ne peut interférer dans une procédure européenne en cours sans prendre le risque de nuire à la fois à la procédure et à la crédibilité de ses propres travaux. Nous nous intéresserons au rôle de la Commission et à l’organisation de son travail, mais il ne serait pas opportun de l’inscrire dans le texte.

M. Arthur Delaporte (SOC). Je comprends l’argument et je retire l’amendement.

J’ajoute que je retire également l’amendement AS23, qui visait à modifier le titre pour correspondre à l’élargissement du champ de la commission : il est désormais sans objet.

L’amendement est retiré.

La commission adopte l’article unique modifié.

L’ensemble de la proposition de résolution est ainsi adopté.

*

*     *

En conséquence, la commission des affaires sociales demande à l’Assemblée nationale d’adopter la proposition de résolution dans le texte figurant dans le document annexé au présent rapport.

Texte adopté par la commission : https://assnat.fr/U2vC28

 


   annexe


([1]) Ordonnance n° 58-1100 du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires.

([2]) Rapport fait par M. Claude Malhuret au nom de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence, n° 831 (2022‑2023), tome I, déposé le 4 juillet 2023.

([3]) Idem.

([4]) Commission d’enquête – en cours –sur les violences commises dans les secteurs du cinéma, de l’audiovisuel, du spectacle vivant, de la mode et de la publicité, Mme Sandrine Rousseau (présidente), M. Erwan Balanant (rapporteur).

([5]) Commission d’enquête – en cours – sur les manquements des politiques publiques de protection de l’enfance, Mme Laure Miller (présidente), Mme Isabelle Santiago (rapporteure).

([6]) Décision n° 2006-545 DC du 28 décembre 2006, Loi pour le développement de la participation et de l’actionnariat salarié et portant diverses dispositions d’ordre économique et social.

([7]) Rapport d’information n° 714 fait au nom de la commission des affaires sociales de l’Assemblée nationale par Mme Nicole Dubré-Chirat et Mme Sandrine Rousseau sur la prise en charge des urgences psychiatriques, déposé le 11 décembre 2024.

([8]) Idem.

([9]) Idem.

([10]) Nearly One-Third of TikTok’s Installed Base Uses the App Every Day, Sensor Tower, Stéphanie Chan, juillet 2022.

([11]) Rapport précité fait au nom de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence.

([12]) Deadly by design, TikTok pushes harmful content promoting eating disorders and self‑harm into users’ feed, Center for Countering Digital Hate, 15 décembre 2022.

([13]) Poussé.e.s vers les Ténèbres, Comment le fil « Pour toi » de TikTok encourage l’automutilation et les idées suicidaires, Amnesty International, 7 novembre 2023.

([14]) La dysmorphophobie est définie par le dictionnaire Larousse comme une « préoccupation exagérée manifestée par quelqu’un au sujet de l’aspect disgracieux de tout ou partie de son corps, que cette crainte ait un fondement objectif ou non ». La dysmorphophobie est référencée comme trouble mental et du comportement dans la classification internationale des maladies (CIM-10).

([15]) Rapport précité fait au nom de la commission d’enquête sur l’utilisation du réseau social TikTok, son exploitation des données, sa stratégie d’influence.

([16])