TikTok : le piège algorithmique qui met en danger la santé mentale des jeunes

Sous des airs de divertissement inoffensif, TikTok cache un danger bien réel pour les jeunes. D’après un nouveau rapport d’Amnesty International publié ce 21 octobre, la plateforme chinoise continue d’exposer des enfants et adolescents déjà fragiles à des contenus dépressifs, voire suicidaires — et ce, malgré la réglementation européenne censée protéger les mineurs.
Intitulé Entraîné·e·s dans le “rabbit hole”, le rapport met en lumière l’incapacité de TikTok à corriger les dérives d’un modèle algorithmique conçu pour maximiser l’engagement… au détriment de la santé mentale des plus vulnérables.
Trois heures pour tomber dans le gouffre
Les chercheurs d’Amnesty ont créé trois faux profils d’adolescents de 13 ans en France. Résultat : en moins d’une heure de navigation sur le fil « For you », ces comptes ont été submergés par des vidéos sur la tristesse, la dépression et les idées suicidaires.
« Nos recherches techniques révèlent à quelle vitesse les adolescent·e·s qui manifestent un intérêt pour des contenus liés à la santé mentale peuvent être attirés dans une spirale toxique (ou “rabbit hole”). En seulement trois à quatre heures de navigation sur le fil “Pour toi” de TikTok, les faux comptes d’adolescent·e·s créés pour nos recherches ont été exposés à des vidéos qui idéalisaient le suicide ou montraient des jeunes exprimant leur intention de mettre fin à leurs jours, avec des informations sur les méthodes de suicide, » a déclaré Lisa Dittmer, chercheuse sur les droits numériques des enfants et des jeunes à Amnesty International. « Les témoignages de jeunes et de parents endeuillés recueillis en France révèlent comment TikTok a normalisé et exacerbé le penchant des jeunes en question pour l’automutilation ainsi que leurs idées suicidaires, au point de leur recommander des méthodes de suicide et des défis en ce sens. »
Cette étude, menée avec l’Algorithmic Transparency Institute (ati.io), confirme que TikTok amplifie activement les contenus dépressifs. Lorsque les comptes interagissent avec des vidéos sur la santé mentale, le pourcentage de contenus tristes ou morbides recommandés double.
Des témoignages bouleversants
Au-delà des tests techniques, Amnesty a recueilli des témoignages poignants de jeunes et de familles françaises.
Maëlle, 18 ans, raconte avoir été happée par des contenus d’automutilation dès 2021 : « Voir des gens se scarifier en direct, ou expliquer comment se suicider… ça influence, ça t’incite à reproduire ces comportements. »
« Pour ces plateformes, nos enfants deviennent des produits et non plus des êtres humains. On utilise nos enfants comme des produits avec un algorithme et une bulle de filtres, en se servant de leurs émotions pour les capter. L’algorithme va capter vos centres d’intérêt, ce qui n’est pas normal. On rentre dans la vie privée de l’enfant. Mais les enfants ont des droits, » a déclaré Stéphanie Mistre, la mère de Marie Le Tiec, une adolescente française qui a été entraînée dans la spirale de contenus dépressifs de TikTok et s’est suicidée en 2021, à l’âge de 15 ans.
TikTok, sous le feu du DSA européen
En Europe, TikTok est censé se conformer au Digital Services Act (DSA) (ensemble de législations européennes sur le numérique), qui oblige les plateformes à identifier et atténuer les risques systémiques pour les droits des enfants. Pourtant, Amnesty dénonce une violation manifeste de cette obligation.
« Cette nouvelle preuve de violations manifestes du DSA par TikTok doit de toute urgence être intégrée à l’enquête actuellement menée par la Commission européenne. Des mesures contraignantes et efficaces doivent être prises pour obliger TikTok à rendre enfin son application sûre pour les jeunes de l’Union européenne et du monde entier, » a déclaré Katia Roux, chargée de plaidoyer chez Amnesty International France.
Un modèle économique sous accusation
Au cœur du problème : l’économie de l’attention. L’algorithme de TikTok est conçu pour maintenir les utilisateurs le plus longtemps possible en ligne, quitte à leur recommander des contenus extrêmes. Cette mécanique, fondée sur l’engagement, nourrit un cercle vicieux de dépendance et de détresse psychologique.
Selon Amnesty, ce modèle constitue une violation des droits humains des enfants, tels que définis par les Nations Unies. L’organisation souligne aussi des failles persistantes dans la modération de contenu : des vidéos incitant à l’automutilation restent en ligne malgré des signalements répétés.
Apprenez-en plus sur : Principes directeurs relatifs aux entreprises et aux droits de l'homme : mise en oeuvre du cadre de référence « protéger, respecter et réparer » des Nations Unies | OHCHR
Vers une régulation plus ferme des réseaux sociaux ?
En France, le débat parlementaire sur la responsabilité des plateformes numériques s’intensifie. Le rapport d’Amnesty apporte de nouveaux arguments à celles et ceux qui réclament un encadrement plus strict des algorithmes.
Pour les parents et les éducateurs, le constat est alarmant : les jeunes ne sont pas seulement exposés à des contenus choquants, ils y sont entraînés, encouragés et enfermés.
Une spirale algorithmique qui, à l’heure des régulations européennes, pose une question essentielle : qui protège vraiment les enfants du numérique ?
Pour en savoir plus :
Amnesty International avait publié en 2023 deux autres rapports sur ce sujet, qui montraient les
préjudices subis par les enfants et les jeunes utilisant TikTok : Poussé·e·s vers les ténèbres. Comment le fil « Pour toi » de TikTok encourage l’automutilation et les idées suicidaires et« Je me sens vulnérable ». Pris·e·s au piège de la surveillance intrinsèque à TikTok. Pour trouver de l’aide sur les sujets abordés dans ce rapport, vous pouvez consulter leur guide Sauver le monde sans s’effondrer (volume 2). Manuel du bien-être pour les jeunes militant·e·s.

Graphic/Motion Designer - BUBKA (NL)
Vacature: Graphic/Motion Designer die pixels én planeet serieus neemt Bubka – Antwerpen – […]

CONTENT CREATOR - THE CREW
About The Crew The Crew is a boutique creative agency based in Brussels. […]

Responsable du développement commercial et marketing H/F - Réseau des Médias de proximité
APPEL A CANDIDATURES Le Réseau des Médias de proximité recrute un.e « Responsable […]

Corporate PR Account Manager Walkie Talkie
WALKIE TALKIE IS ON THE LOOKOUT FOR A CORPORATE PR ACCOUNT MANAGER WALKIE […]






