Point de Contact

TikTok : comprendre les enjeux du rapport parlementaire

En mars 2025, l’Assemblée nationale a décidé de se saisir d’un sujet de préoccupation croissante –  les effets psychologiques de TikTok sur les mineurs. Une commission d’enquête a ainsi été créée et, pendant six mois, les députés ont entendu des dizaines d’experts, de chercheurs, de professionnels de santé, mais aussi des associations, des parents, des créateurs et des représentants de la plateforme elle-même. L’ambition était double : d’une part, établir un état des lieux précis de l’utilisation de TikTok par les jeunes ; d’autre part, mesurer les conséquences psychologiques de cette exposition prolongée. Le sujet est d’autant plus important que, selon une récente étude de l’Arcom, 49 % des 11-17 ans utilisent TikTok quotidiennement. Point de Contact, reconnue signaleur de confiance par le régulateur, a été auditionnée à cette occasion. Notre association a pu témoigner de son expérience quotidienne en matière de signalements et apporter un éclairage sur un phénomène qui ne se limite pas aux seuls contenus illicites, mais qui touche aussi une vaste zone de contenus dits “préjudiciables”, qui ne relèvent pas directement d’infractions mais qui ont un impact important sur la santé mentale et le bien-être des enfants et adolescents.

Une enquête parlementaire face à l’essor de TikTok

Le rapport, rendu public en septembre 2025, s’inscrit dans le cadre d’une enquête parlementaire lancée face aux préoccupations croissantes liées à l’usage de TikTok par les jeunes. La plateforme, devenue l’un des réseaux sociaux les plus populaires auprès des adolescents, se distingue par son modèle fondé non pas sur l’abonnement, mais sur un fil de recommandations dit “Pour toi”. Ce système repose sur un algorithme de personnalisation qui sélectionne en continu les contenus proposés aux utilisateurs. Ce fonctionnement suscite des interrogations quant à son impact sur le temps passé devant un écran, l’exposition à des contenus violents et la répétition de thématiques sensibles, notamment chez les publics les plus jeunes et les plus vulnérables. Si TikTok a été spécifiquement visé en raison de son succès inédit auprès des mineurs et de la performance reconnue de son algorithme, la commission rappelle que ces problématiques dépassent cette seule application. Le défilement infini de vidéos courtes, pensé pour maximiser l’attention, a inspiré la plupart des grands réseaux sociaux et est désormais devenu la norme. Ainsi, même si TikTok constitue un cas emblématique, les recommandations formulées par le rapport — en matière de régulation, de protection des mineurs et de responsabilité des plateformes — sont appelées à s’appliquer plus largement à l’ensemble des grands acteurs du numérique.

Des risques qui vont du manifestement dangereux aux « zones grises »

La commission a documenté de manière précise la nature des contenus problématiques rencontrés sur TikTok. Certains sont manifestement dangereux : vidéos incitant au suicide ou à l’automutilation, tutoriels détaillant des techniques de scarification, glorification des troubles alimentaires. D’autres relèvent de la désinformation : conseils médicaux douteux, recommandations pseudo-psychologiques, discours complotistes. On trouve également des propos haineux ou discriminatoires, souvent banalisés sous forme de contenus humoristiques ou de défis viraux. Enfin, une large partie des contenus se situe dans une zone grise : ce ne sont pas des infractions au sens du droit pénal, mais ils fragilisent les jeunes en imposant des normes irréalistes, en banalisant des comportements dangereux ou en véhiculant des visions stigmatisantes. Chez Point de Contact, la majorité des signalements que nous traitons concernent bien des contenus illicites – 57 % en 2024 selon notre rapport annuel 2024 – mais notre expertise nous permet aussi de constater combien ces contenus “gris”, qui ne sont pas nécessairement illégaux, peuvent avoir des effets tout aussi préoccupants. Ces phénomènes ne sont pas anodins : leur caractère répétitif, leur surexposition et leur diffusion massive peuvent peser lourdement sur la santé mentale des enfants et adolescents.

Quand l’algorithme enferme les jeunes dans des spirales de contenus

L’algorithme occupe une place centrale dans le diagnostic posé par la commission d’enquête parlementaire. Selon le rapport, TikTok ne se contente pas de proposer des contenus : il organiserait l’attention de manière à maximiser l’engagement. Ainsi, lorsque un adolescent manifeste un intérêt, même bref, pour des contenus à risque (automutilation, diététique extrême, etc.), il risque d’être de plus en plus exposé à des vidéos similaires, jusqu’à se retrouver dans une spirale de contenus répétitifs – ce que la commission qualifie de « piège algorithmique ». Cette dernière souligne que ces mécanismes ne sont pas accidentels mais liés à des choix de conception et de modèle économique : maximiser le temps passé, accroître la collecte de données, optimiser la publicité. 

La transparence des algorithmes est un enjeu clé pour limiter les risques liés aux plateformes. Il s’agit de mieux comprendre pourquoi certains contenus apparaissent dans les fils de recommandations, et de permettre un contrôle indépendant de ces choix. Le pluralisme algorithmique va dans ce sens : offrir aux utilisateurs plusieurs options de fonctionnement, comme un fil chronologique ou des recommandations moins axées sur la captation du temps d’écran, permettrait d’éviter ces effets d’enfermement. Lors de la consultation citoyenne organisée par l’Assemblée nationale, les jeunes eux-mêmes ont fait preuve de lucidité : beaucoup disent se sentir happés par des contenus négatifs, conscients de leurs effets délétères, sans pour autant parvenir à s’en défaire.

Modération, régulation et rôle des signaleurs de confiance

Le rapport met en lumière un défi central : la modération des contenus à grande échelle. TikTok entend appliquer des règles strictes et mettre en œuvre une modération automatique, mais le volume de contenus à examiner reste très élevé. Les auditions ont montré que, derrière une modération en principe rigoureuse, des écarts peuvent apparaître dans le traitement des contenus, notamment ceux nécessitant une intervention humaine. Le règlement européen sur les services numériques (DSA) impose aux très grandes plateformes des obligations renforcées en matière de transparence, de coopération avec les signaleurs de confiance et d’évaluation des risques systémiques. Dans ce cadre, le rôle des signaleurs de confiance est de fournir des signalements qualifiés pour un traitement prioritaire, bien que certains contenus problématiques, sans caractère illégal, représentent toujours un défi pour la modération. Ces constats soulignent l’importance de compléter la modération par des dispositifs efficaces de vérification de l’âge et par un paramétrage des comptes adapté aux jeunes utilisateurs, afin de réduire leur exposition à des contenus inappropriés ou sensibles.

Prévenir et éduquer : un enjeu collectif

Comment protéger efficacement les jeunes lorsque la loi ne peut pas tout encadrer ? Le rapport rappelle que les plateformes ont une responsabilité en matière de prévention et d’atténuation des risques, même en l’absence d’infraction pénale. Cette responsabilité s’inscrit désormais dans un cadre juridique précis : le Règlement sur les services numériques oblige en effet les grandes plateformes à évaluer et à réduire les risques systémiques liés à leurs services, en particulier ceux qui concernent les mineurs. Point de Contact plaide depuis longtemps pour que cette régulation prenne en compte les effets indirects et incite les plateformes à repenser leurs algorithmes, à diversifier les contenus proposés et à réduire la visibilité des contenus nuisibles. Mais au-delà de la régulation, c’est aussi une question d’éducation et de sensibilisation.

La commission propose de renforcer massivement la prévention. Cela suppose d’outiller les jeunes pour qu’ils comprennent les logiques algorithmiques, repèrent les contenus manipulatoires et identifient leurs effets sur leur humeur ou leur estime de soi. Les parents, de leur côté, ont besoin d’un accompagnement pour encadrer l’usage des écrans, tandis que les enseignants et éducateurs devraient bénéficier de formations adaptées pour intégrer l’éducation au numérique dans leurs pratiques quotidiennes. Point de Contact contribue déjà à cet effort, à travers des ressources grand public, des interventions auprès des professionnels et des ateliers de sensibilisation. Mais ces actions, qui reposent largement sur des associations comme la nôtre, ne disposent pas toujours des financements suffisants pour répondre à l’ampleur des besoins. Il est donc nécessaire que les pouvoirs publics et les plateformes renforcent leur soutien à la prévention, afin de donner aux acteurs de terrain les moyens d’agir à la hauteur des enjeux.

Au-delà de TikTok, repenser le modèle numérique

Au-delà du cas TikTok, ce rapport met en évidence une problématique plus large : celle d’un modèle numérique structuré autour de la captation de l’attention. Les mécanismes décrits — formats courts et verticaux, défilement infini, algorithmes de personnalisation — ne sont pas propres à une seule application et se retrouvent sur une grande partie des réseaux sociaux. C’est pourquoi la réponse doit être globale : appliquer et renforcer la régulation, confronter les plateformes sur leurs choix de design et encourager des modèles alternatifs qui privilégient la qualité des interactions plutôt que la quantité de visionnages. Le rapport parlementaire marque une étape importante dans cette prise de conscience collective : il ouvre de nouvelles pistes d’action aux pouvoirs publics, nourrit le débat européen sur la protection des mineurs et donne aux associations comme Point de Contact un appui institutionnel renforcé. Notre rôle dépasse le traitement des signalements isolés : il consiste aussi à mettre en lumière les risques systémiques, à alerter sur les zones grises et à contribuer à la construction d’un Internet plus sûr. Cela repose sur trois axes complémentaires : retirer les contenus les plus dangereux, documenter les vulnérabilités et sensibiliser massivement les jeunes, les parents et les professionnels.

En conclusion, le travail de la commission d’enquête constitue un point de départ vers une mobilisation collective : pouvoirs publics, plateformes, associations et familles doivent agir ensemble pour créer un environnement numérique équilibré, où innovation et expression s’accompagnent de responsabilité.

À PROPOS

point de contact logo

Point de Contact est une association de lutte contre les cyberviolences et de protection des droits
des citoyens sur internet. Elle permet par exemple aux victimes et aux témoins de lui signaler des
contenus ou des comportements malveillants et collabore étroitement avec les autorités et les
plateformes numériques pour en obtenir le retrait. L’association mène également des actions de
formation, de sensibilisation et de plaidoyer à l’attention des jeunes, des professionnels, des
entreprises et des pouvoirs publics.
Reconnue pour ses compétences dans la lutte contre la pédocriminalité, les discours illégaux et les
violences sexuelles en ligne, Point de Contact s’engage en faveur d’espaces numériques plus sûrs,
plus inclusifs et plus respectueux des droits fondamentaux.

Traduction