France. TikTok continue d’orienter les enfants et les jeunes déjà fragiles vers des contenus dépressifs et suicidaires

Le rapport d’Amnesty International traite de sujets sensibles comme l’automutilation et le suicide.

De nouvelles recherches menées en France par Amnesty International montrent que le fil « Pour toi » de TikTok pousse les enfants et les jeunes qui manifestent un intérêt pour la santé mentale dans un cercle vicieux de contenus dépressifs ou valorisant l’automutilation et le suicide.

Le rapport de l’organisation, intitulé Entraîné·e·s dans le « rabbit hole ». De nouvelles preuves montrent les risques de TikTok pour la santé mentale des enfants, souligne l’incapacité persistante de TikTok à remédier aux risques systémiques que la conception de sa plateforme fait courir aux enfants et aux jeunes.

« Nos recherches techniques révèlent à quelle vitesse les adolescent·e·s qui manifestent un intérêt pour des contenus liés à la santé mentale peuvent être attirés dans une spirale toxique (ou “rabbit hole”). En seulement trois à quatre heures de navigation sur le fil “Pour toi” de TikTok, les faux comptes d’adolescent·e·s créés pour nos recherches ont été exposés à des vidéos qui idéalisaient le suicide ou montraient des jeunes exprimant leur intention de mettre fin à leurs jours, avec des informations sur les méthodes de suicide », a déclaré Lisa Dittmer, chercheuse sur les droits numériques des enfants et des jeunes à Amnesty International.

« Les témoignages de jeunes et de parents endeuillés recueillis en France révèlent comment TikTok a normalisé et exacerbé le penchant des jeunes en question pour l’automutilation ainsi que leurs idées suicidaires, au point de leur recommander des méthodes de suicide et des défis en ce sens. »

Le fil « Pour toi » de TikTok est un flux personnalisé de courtes vidéos recommandées par la plateforme en fonction de l’historique de visionnage.

L’équipe de recherche d’Amnesty International a créé trois faux comptes d’adolescent·e·s de 13 ans (deux filles et un garçon) sur TikTok en France afin d’étudier manuellement l’amplification algorithmique des contenus sur le fil « Pour toi » de TikTok. Dès les cinq premières minutes de navigation, et avant même qu’une quelconque préférence n’ait été exprimée, les comptes se sont vu proposer des vidéos sur la tristesse ou le désenchantement.

Le fait de regarder ces vidéos a rapidement fait augmenter le nombre de contenus liés à la tristesse et à la santé mentale. Dans les 15 à 20 minutes après le début de l’expérience, les trois fils contenaient presque exclusivement des vidéos sur la santé mentale, dont jusqu’à la moitié sur des contenus dépressifs. Sur deux des comptes, des vidéos exprimant des pensées suicidaires sont apparues dans les 45 minutes.

Des expériences supplémentaires ont été réalisées en collaboration avec l’Algorithmic Transparency Institute au moyen de comptes automatisés d’adolescent·e·s de 13 ans en France. Elles ont montré que le système de recommandation de TikTok faisait plus que doubler le pourcentage de contenus tristes ou dépressifs recommandés lorsque les historiques de visionnage contenaient de telles vidéos, dans des proportions variables.

Ces recherches ont été menées en France, où TikTok est réglementée par le Règlement sur les services numériques (DSA) de l’Union européenne, qui oblige depuis 2023 les plateformes à identifier et à atténuer les risques systémiques pour des droits de l’enfant.

Les législatrices et législateurs français débattent actuellement des failles dans la réglementation des réseaux sociaux, et ces recherches viennent s’ajouter aux éléments recueillis précédemment par Amnesty International prouvant que TikTok ne fait pas le nécessaire pour remédier aux risques liés à son modèle économique fondé sur l’engagement.

Les conséquences sur les jeunes

Malgré les mesures d’atténuation des risques annoncées par TikTok depuis 2024, la plateforme continue d’exposer les utilisateurs et utilisatrices vulnérables à des contenus qui normalisent l’automutilation, le désespoir et les idées suicidaires.

Des témoignages de jeunes ayant sombré dans la dépression et de parents concernés ou endeuillés révèlent l’ampleur des risques et des préjudices que le modèle économique de TikTok entraîne pour la santé mentale et physique des jeunes déjà mal dans leur peau.

« Il y a des vidéos […] qui sont encore imprimées dans ma rétine », a déclaré Maëlle, 18 ans, décrivant comment elle avait été attirée vers des contenus dépressifs et liés à l’automutilation sur le fil « Pour toi » de TikTok en 2021. Pendant les trois années qui ont suivi, son mal-être psychologique l’amenant à s’automutiler n’a cessé de s’aggraver tandis qu’elle était dévorée par des contenus nocifs en ligne.

« Voir des gens qui se scarifient en direct, des gens qui disent quoi prendre comme médicaments pour en finir, ça influence et ça t’incite à avoir des comportements délétères. »

Si le rapport d’Amnesty International se concentre sur le problème de l’amplification des contenus nocifs, les témoignages recueillis dénoncent aussi les manquements de la modération de contenu de TikTok. Selon les participant·e·s aux recherches, des contenus incitant à l’automutilation ou au suicide n’ont pas été supprimés de la plateforme malgré les signalements à répétition faits par des jeunes et leurs familles.

Par exemple, dans le fil d’un des comptes tests gérés manuellement, l’équipe de recherche d’Amnesty International est tombée durant l’été 2025 sur deux vidéos présentant le « défi du baume à lèvres ». Cette tendance sur les réseaux sociaux a semble-t-il commencé sous la forme d’un défi consistant à deviner le goût du baume à lèvres d’une autre personne. La règle a ensuite évolué en une autre version encourageant les gens à couper un morceau de leur baume à lèvres à chaque fois qu’ils ou elles se sentaient tristes, puis à s’automutiler ou à tenter de se suicider une fois le baume terminé.

« Pour ces plateformes, nos enfants deviennent des produits et non plus des êtres humains. On utilise nos enfants comme des produits avec un algorithme et une bulle de filtres, en se servant de leurs émotions pour les capter. L’algorithme va capter vos centres d’intérêt, ce qui n’est pas normal. On rentre dans la vie privée de l’enfant. Mais les enfants ont des droits », a déclaré Stéphanie Mistre, la mère de Marie Le Tiec, une adolescente française qui a été entraînée dans la spirale de contenus dépressifs de TikTok et s’est suicidée en 2021, à l’âge de 15 ans.

Des mesures contraignantes requises de toute urgence pour rendre TikTok plus sûre

Ces recherches montrent que TikTok ne fait pas le nécessaire pour remédier aux risques systémiques que la conception addictive de sa plateforme fait courir aux jeunes. L’entreprise n’assume pas sa responsabilité de respecter les droits humains conformément aux Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme et ne respecte pas toutes ses obligations au titre du DSA.

« Cette nouvelle preuve de violations manifestes du DSA par TikTok doit de toute urgence être intégrée à l’enquête actuellement menée par la Commission européenne. Des mesures contraignantes et efficaces doivent être prises pour obliger TikTok à rendre enfin son application sûre pour les jeunes de l’Union européenne et du monde entier », a déclaré Katia Roux, chargée de plaidoyer chez Amnesty International France.

L’indifférence de TikTok à l’égard des préjudices systémiques liés à son modèle fondé sur l’engagement soulève de graves inquiétudes en ce qui concerne son respect du DSA et souligne la nécessité, pour protéger les enfants et les utilisateurs·rices vulnérables, d’adopter des mesures plus fortes réglementant les plateformes et les obligeant à rendre des comptes.

Amnesty International a fait part de ses principales conclusions à TikTok. L’entreprise ne lui a pas répondu.