Une nouvelle enquête d’Amnesty International révèle que deux ans après les premières alertes, la plateforme TikTok continue de plonger les jeunes utilisateurs dans des « rabbit holes » de contenus dépressifs et suicidaires.
Maëlle avait 15 ans quand elle a téléchargé TikTok en 2021. Harcelée à l’école, elle cherchait une échappée. Au début, c’était drôle : des vidéos de chats, des danses, des blagues. Puis une chanson l’a touchée, une mélodie qui parlait de moments sombres. Elle a cliqué. Encore. Et encore. « Petit à petit, c’est devenu de plus en plus sombre, raconte-t-elle aujourd’hui, à 18 ans. Comme si la mort n’était peut-être pas une si mauvaise idée. »
En quelques semaines, jusqu’à 75% des vidéos qui défilaient sur son écran normalisaient l’automutilation et le suicide. « Ça m’a gardé la tête sous l’eau », résume-t-elle.
Deux ans d’alertes, rien n’a changé
L’histoire de Maëlle n’est pas isolée. Presque deux ans après un premier rapport accablant publié en novembre 2023, Amnesty International dévoile une nouvelle enquête menée en France qui fait froid dans le dos : TikTok continue de plonger les jeunes utilisateurs dans ce qu’on appelle des « rabbit holes », ces terriers virtuels où les contenus dépressifs s’enchaînent jusqu’à l’asphyxie mentale.
Pour le démontrer, l’organisation a créé des comptes d’adolescents fictifs de 13 ans et observé ce que l’algorithme leur servait. Les résultats sont glaçants. En moins d’une heure après avoir manifesté un simple intérêt pour du contenu lié à la tristesse, ces comptes tests ont été submergés de vidéos dépressives. En trois à quatre heures à peine, ils recevaient des contenus romantisant le suicide, montrant des jeunes partageant leur intention de mourir, voire donnant des informations sur des méthodes pour y parvenir.
La mécanique implacable de l’algorithme
Les tests automatisés révèlent une logique diabolique : dès qu’un compte regarde à peine 5% de contenus tristes, TikTok en recommande 13% dans le flux suivant. À 7,6% de vidéos dépressives visionnées, le taux monte à 16%. Plus on regarde, plus l’algorithme en propose. C’est une spirale dont il devient presque impossible de sortir.
Édouard, 17 ans, le confirme : « J’étais dans une profonde dépression. Petit à petit, je me sentais encore plus mal, et je voulais aller plus loin, plus fort, plus profond… Je tombais sur des vidéos de gens qui se coupaient. Je pensais : je dois atteindre ce niveau de cicatrices sinon je ne suis pas content. Je voulais me voir détruit. »
Marie et Charlize ne reviendront pas
Marie avait 15 ans quand elle s’est suicidée en 2021. Charlize aussi avait 15 ans quand elle est morte en 2023. Après leur disparition, leurs parents ont découvert l’ampleur du contenu toxique auquel leurs filles étaient exposées sur TikTok. Stéphanie, la mère de Marie, est encore sous le choc : « Quand j’ai découvert ce contenu, ça a été un choc. Des chansons qui encouragent le suicide, des contenus effrayants, toujours sombres, avec une voix qui te dit que tu ne vas pas bien, que tu es seul… Sans parler des tutoriels sur comment se couper ou faire un nœud pour se pendre. »
Elle ajoute, la voix tremblante : « Pour ces plateformes, nos enfants deviennent des produits au lieu d’êtres humains. Ils utilisent nos enfants comme des produits avec un algorithme, en utilisant leurs émotions pour les capturer. »
Des jeunes désarmés face à la machine
Un sondage mené auprès de 1 000 jeunes Français de 13 à 25 ans révèle l’ampleur du problème. 82% reconnaissent passer trop de temps sur les réseaux sociaux. 58% se disent affectés par des contenus perturbants. Seul un jeune sur cinq parvient à éviter ces contenus toxiques. Et près de la moitié ignorent même que ce qu’ils voient est personnalisé selon leurs données personnelles.
Pendant ce temps, TikTok continue de jouer l’innocence. Les signalements des utilisateurs sont rarement suivis d’effets. Des contenus clairement dangereux restent en ligne. L’entreprise ne détecte même pas les « algospeaks », ces codes utilisés pour contourner la modération, comme le drapeau suisse pour symboliser le suicide.
La loi bafouée
Pourtant, depuis août 2023, TikTok est soumis au Digital Services Act européen qui exige une évaluation annuelle des risques, des mesures de protection proportionnées et l’interdiction de publicité ciblée vers les mineurs. Sur le papier, tout est parfait. Dans les faits, l’enquête d’Amnesty démontre que rien n’est respecté. TikTok n’a pas mis en place de « coupe-circuits » pour briser ces spirales mortelles. L’entreprise continue de maximiser l’engagement à tout prix, au détriment de la santé mentale des plus jeunes.
La Commission européenne enquête depuis février 2024. En France, une commission parlementaire a rendu ses conclusions en septembre 2025, la santé mentale a été désignée Grande Cause nationale. Mais pendant que les rapports s’accumulent, les adolescents continuent de sombrer.
L’urgence d’agir
Amnesty International ne mâche pas ses mots : TikTok viole le droit à la vie privée en surveillant massivement ses utilisateurs, le droit à la liberté de pensée en manipulant leur attention, et le droit à la santé en les exposant à des contenus traumatisants. L’organisation exige que l’entreprise change radicalement de modèle économique, abandonne la surveillance de masse et cesse de maximiser l’engagement au détriment de tout le reste.
Deux ans après les premières alertes, rien n’a changé. Marie et Charlize ne sont probablement pas les seules victimes. Combien d’autres adolescents ont été « entraînés dans le terrier du lapin » sans que leurs proches le sachent ? Combien d’autres Maëlle et Édouard sont encore piégés dans cette spirale ?
Il est temps que les régulateurs passent des enquêtes aux sanctions. Il est temps que TikTok soit contraint de choisir : les profits ou la vie des enfants. Car pour l’instant, le choix est fait. Et il tue.