Un nouveau front judiciaire s’ouvre pour TikTok. Sept familles françaises ont décidé d’assigner le géant des réseaux sociaux en justice, l’accusant d’avoir exposé leurs enfants à des contenus mettant en avant le suicide, l’automutilation et les troubles alimentaires. Une procédure civile lourde de sens qui soulève une fois de plus la question de la responsabilité des plateformes dans la protection des plus jeunes.
Des parents en croisade contre les contenus toxiques
Derrière cette action en justice, on retrouve le collectif Algos Victima qui fédère ces familles endeuillées ou inquiètes pour la santé mentale de leurs adolescents. Leur avocate, Me Laure Boutron-Marmion, dénonce sans détour les dérives de l’application :
Celui qui va sur TikTok ne se pose pas la question d’où il va, il ouvre l’application et est bombardé de contenus. Vous mettez cela entre les mains d’un adolescent mal dans sa peau, très vite, un enfermement psychologique s’opère.
– Me Laure Boutron-Marmion, avocate du collectif Algos Victima
Au cœur des griefs, on retrouve pêle-mêle le caractère addictif de l’application, les défaillances de l’algorithme dans le filtrage des contenus inappropriés et les conséquences parfois dramatiques sur la santé des jeunes utilisateurs, avec hélas dans certains cas des suicides avérés.
TikTok affirme modérer, mais des failles persistent
Face à ces accusations, TikTok, propriété du groupe chinois ByteDance, rappelle régulièrement que les contenus faisant l’apologie du suicide ou de l’automutilation sont proscrits et supprimés par ses équipes de modération. Des garde-fous néanmoins jugés insuffisants par de nombreux experts et associations.
Car si les conditions d’utilisation sont claires, force est de constater que des contenus problématiques continuent de circuler, souvent mis en avant par les fameux algorithmes de recommandation. Interrogée, une source proche de TikTok France assure pourtant que « la sécurité de la communauté est une priorité absolue » et que d’importants moyens humains et technologiques sont déployés en ce sens.
Un phénomène hélas répandu sur les réseaux sociaux
Cette mise en cause de TikTok n’est hélas pas un cas isolé. D’autres réseaux sociaux prisés des ados comme Instagram ou Snapchat font régulièrement l’objet de plaintes et d’enquêtes pour leur gestion jugée défaillante des contenus sensibles.
Aux États-Unis, des écoles publiques ont ainsi attaqué en janvier dernier plusieurs réseaux dont TikTok, les accusant de porter atteinte à la santé mentale des élèves. Tandis qu’en Italie, une enquête a été ouverte en mars dernier par les autorités de la concurrence sur les contenus incitant au suicide non filtrés par TikTok.
Pour une meilleure régulation des contenus en ligne ?
Au-delà de la responsabilité individuelle des plateformes, c’est tout l’écosystème numérique qui est questionné. Entre liberté d’expression et protection des publics vulnérables, l’équilibre est complexe à trouver pour les législateurs.
En Europe, le Digital Services Act adopté en 2022 posera à terme de nouvelles obligations aux géants de la tech, notamment en matière de modération des contenus illicites et préjudiciables. Mais d’ici son application concrète, le chemin promet d’être encore long et semé d’embûches juridiques.
Car au-delà de la théorie, c’est bien l’efficacité des dispositifs de contrôle et leur caractère contraignant qui seront déterminants. Les procédures comme celle initiée en France pourraient en ce sens faire jurisprudence et inciter au renforcement des garde-fous. Sans porter atteinte à la liberté de communiquer en ligne, il y a urgence à mieux protéger les plus jeunes des dérives potentiellement dramatiques des réseaux sociaux. Une gageure à l’heure de l’hyper connectivité, mais un défi collectif à relever pour le bien-être des nouvelles générations.