11 Décembre 2024
En 2022 en France, plus de neuf millions de personnes visitaient TikTok chaque jour, dont 4,1 millions de 15-24 ans (Étude Harris Interactive). Particulièrement prisé chez les plus jeunes, TikTok s’est imposé dans les cours de récréation des collèges et lycées, ayant une réelle influence sur la jeunesse. Dans ce contexte, et dès 2021, des collectifs de parents se sont plaints de divers contenus violents ou inadaptés proposés par la plateforme, mettant notamment en avant les pratiques d’automutilation ou ayant pour thème le suicide.
Comment fonctionne ce réseau social ?
En moyenne, chaque utilisateur de TikTok passe 95 minutes par jour sur l’application, soit un total de 47 heures par mois (d’après l’agence média Sleeq, partenaire de TikTok).
Pour celles et ceux qui ne seraient pas familiers du fonctionnement de l’application, ce dernier est simple : ouvrez TikTok et vous vous trouverez face à une vidéo qui vous est proposée. Soit elle vous plait, et vous la regardez, soit elle ne vous plait pas, et vous passez à la suivante d’un mouvement de pouce vers le bas. Vous passez ainsi de vidéo en vidéo, sans avoir à chercher quoi que ce soit : c’est l’algorithme qui se charge de définir la meilleure vidéo à vous montrer, en se basant sur différents critères : votre âge, genre, la date et l’heure, si vous avez aimé la vidéo précédente, votre historique de vidéos visionnées, l’actualité, etc. L’algorithme de TikTok tient ainsi une place indispensable dans son fonctionnement, il est entraîné pour vous connaître, connaître vos goûts, et savoir quelles vidéos enchaîner pour vous faire rester le plus possible sur l’application.
Des contenus nocifs sur le réseau social ?
L’association Amnesty International, engagée pour les droits de l’humain et de l’enfant, a publié en novembre 2023 un rapport portant sur les dérives de l’algorithme de TikTok. Son titre est plutôt explicite : « Poussé·e·s vers les ténèbres. Comment le fil « Pour toi » de TikTok encourage l’automutilation et les idées suicidaires » (voir le rapport). Avec des faux comptes, les chercheurs d’Amnesty International ont passé plusieurs jours sur l’application en imitant le comportement d’enfants de 13 ans, en visionnant avec intérêt chaque vidéo ayant un lien avec la santé mentale ou la tristesse (visionnant plusieurs fois, interagissant avec les vidéos par des likes, des partages…). Leur conclusion atteste, entre autres, de la prolifération de ces « contenus nocifs », passant en moyenne de 10% des contenus visionnés le premier jour, à plus de 55% le cinquième jour. Cette prolifération n’était pas observée pour leurs autres faux comptes, ceux ne portant pas intérêt aux vidéos liées à la santé mentale ou à la déprime, confirmant la responsabilité de l’algorithme.
Dans l’enquête, plusieurs aspects néfastes du fonctionnement de l’algorithme sont pointés du doigt. L’un des principaux étant que ces contenus nocifs ne sont pas traités différemment des autres par l'algorithme. Une vidéo traitant de dépression ou d’automutilation pourra être partagée, commentée, et surtout recommandée par TikTok, au même titre qu’une vidéo de cuisine ou de danse. Ainsi, si l'algorithme observe que vous passez du temps à visionner des contenus extrêmes de ce type, il vous en proposera d’autres, toujours plus extrêmes, en toujours plus grand nombre, enfermant les adolescents se sentant déjà mal dans leur peau dans une chaîne de vidéos inappropriées et dangereuses. Ce que l’étude nomme ainsi « l’effet spirale », c’est donc l’enfermement de l’algorithme dans des contenus nocifs, un effet qui peut être observé après seulement 20 minutes d’activité sur TikTok.
Pour ce qui est des contenus nocifs en eux-mêmes, cela peut être des citations liées à la santé mentale ou la dépression, mais aussi des vidéos bien plus extrêmes, expliquant comment s’automutiler, encourageant à le faire, parlant de projets de mort par suicide, etc. Dans le cadre de leur étude, les chercheurs d’Amnesty se sont vus proposer ces vidéos dès le premier jour d’utilisation d’un compte, après quelques heures de visionnage ayant enfermé le compte dans un « effet spirale ». Il est cependant important de noter que ces vidéos particulièrement extrêmes restent très rares, et n’ont représenté que 1% des vidéos visionnées par les chercheurs lors de leur étude.
La prolifération des contenus nocifs liés à la santé mentale a également mené à une série de hashtags regroupant ces vidéos, tels que #sadtiktok (TikTok triste), #mentalhealth (santé mentale), #anxiety (anxiété). Si toutes les vidéos marquées de ces hashtags ne sont pas extrêmes au point de promouvoir l’automutilation, leur prolifération témoigne de la place intégrante qu’ont les contenus traitant de santé mentale sur la plateforme, thématiques particulièrement questionnées par certains adolescents fragiles émotionnellement.
Réponses et solutions de la part de TikTok
Bien que des contenus encourageant le suicide et l’automutilation puissent donc bien être trouvés sur TikTok, ces derniers restent néanmoins interdits par le réseau social, et motif de bannissement pour l’utilisateur les postant. Ses conditions générales d’utilisations sont claires : [sont interdits les contenus] montrant, promouvant ou fournissant des instructions sur le suicide et l’automutilation, et les défis, jeux et pactes qui s’y rapportent. Ainsi, durant leur enquête, les chercheurs d’Amnesty ont constaté la disparition de certaines vidéos qu’ils avaient visionnées plusieurs semaines auparavant, depuis supprimées par TikTok (nous pouvons supposer qu’elles ont été signalées, ou supprimées par les personnes les ayant mises en ligne). Nous pouvons ainsi supposer que TikTok est conscient du problème généré par son algorithme encourageant toujours les contenus les plus extrêmes, car générant plus d’émotion chez l’utilisateur, et donc plus d'engagement.
Comme réponse concrète, TikTok a annoncé en juin 2023 la création d’un « Conseil des jeunes » au sein de son administration, afin de veiller spécifiquement aux problématiques liées aux droits et à la santé des enfants, sans que de réels effets concrets n’aient pour le moment été observés. Notons aussi l’ajout d’un bouton « Pas intéressé » censé casser le système de recommandation de l'algorithme pour un type de vidéo, mais dont les travaux de recherche d’Amnesty mettent en doute le bon fonctionnement.
Il existe également un mode « Connexion Famille » sur l’application, proposant un système de contrôle parental pouvant bloquer certains mots clés, pouvant être efficace si l'on bloque les hashtags cités plus haut, tels que #anxiety, #mentalheath, #sadtiktok ou encore #trauma.
Le 4 novembre 2024, 7 familles se sont regroupées pour attaquer TikTok en justice en France, jugeant ces réponses trop faibles face au risque encouru par les plus jeunes. Pour ce collectif de familles, nommé « Algos Victima », la procédure vise à faire reconnaître la responsabilité de TikTok dans les cas les plus graves, notamment les suicides de deux jeunes adolescentes en 2023, mais également pour des cas de troubles alimentaires, dépressions, automutilations, tentatives de suicide ou autres conséquences. Si ce genre de procédure aboutit (ou se répète), il est possible de s’attendre à des changements sur ce sujet d’ici quelques années.
L’ESSENTIEL :
• L’algorithme de TikTok présente un risque pour certains adolescents, pouvant enfermer ces derniers dans des spirales de contenus nocifs de plus en plus extrêmes.
• TikTok présente bien des vidéos banalisant et encourageant l’automutilation, expliquant comment faire, parlant de suicide, etc.
• Il n’existe pas à ce jour de réponse efficace de la part de TikTok, malgré une connaissance du problème.
• La veille d’un parent, des discussions fréquentes sur ces sujets avec l’ado, voire un système de contrôle parental dans certains cas, sont conseillés pour lutter efficacement contre ces spirales.