TikTok et la sécurité des adolescents : Risques mortels, politiques de protection

Technologie et économie 06-02-2026 | 21:29

TikTok et la sécurité des adolescents : Risques mortels, politiques de protection

Annahar a interrogé les responsables de TikTok sur leur politique de confidentialité des enfants.
TikTok et la sécurité des adolescents : Risques mortels, politiques de protection
Tik Tok et les standarts de sécurité pour proteger les adolescents et les jeunes
Smaller Bigger

Entre des défis décrits comme « mortels » et des contenus qui poussent à la dépression, et les assurances des grandes plateformes de médias sociaux sur leur engagement à protéger les enfants, les questions se multiplient sur la responsabilité des entreprises technologiques et la nécessité de protéger les générations émergentes.


Ci-dessous, nous présentons la perspective de TikTok et le contexte de la question.

 

Du jeu à la tragédie
Une étude d'Amnesty International, intitulée « Entraîné dans le terrier », a révélé que les enfants à la recherche de contenus sur la santé mentale sur TikTok sont rapidement exposés à des contenus dépressifs, et en quelques heures, ils se retrouvent confrontés à des contenus suicidaires.

 

Lauren Armistead de Amnesty Tech déclare : « En seulement trois à quatre heures, les comptes d'essai pour adolescents ont été exposés à des vidéos qui glamourisent le suicide, y compris des informations sur les méthodes de suicide. La recherche, réalisée sur des comptes d'essai pour des adolescents français, a révélé que les algorithmes de TikTok entraînent les enfants dans un cycle de dépression, d'automutilation et de contenus suicidaires. »

 

Au Royaume-Uni, des mères ont intenté des procès pour obtenir justice pour des enfants décédés en tentant le « défi de l'étranglement ».

TikTok et politique de protection 
Annahar a interrogé les responsables de TikTok sur la politique de confidentialité des enfants de la plateforme. La plateforme a confirmé son engagement à protéger les jeunes utilisateurs : « Protéger les adolescents est une priorité absolue, et la sécurité est intégrée à nos politiques et produits dès le début. »

 

En réponse aux questions d'Annahar, TikTok a expliqué que ses règles communautaires sont spécifiquement conçues pour protéger les moins de 18 ans : « TikTok n'autorise pas les contenus qui pourraient nuire physiquement ou émotionnellement aux jeunes. » La plateforme travaille également avec des experts locaux et des organisations au Moyen-Orient et en Afrique du Nord, y compris au Liban.

 

TikTok a révélé des chiffres d'application au Liban : « Au troisième trimestre 2025, TikTok a supprimé 1,26 million de vidéos, atteignant un taux de suppression proactive de 99,7 %, avec 95,3 % retirées dans les 24 heures. » La plateforme a également interdit 15 865 streamers en direct et arrêté 77 820 diffusions en direct pour avoir enfreint les règles communautaires.

 

La plateforme met l'accent sur des protections strictes basées sur l'âge : l'âge minimum est de 13 ans, les messages privés commencent à 16 ans et les diffusions en direct à 18 ans. Les utilisateurs de moins de 18 ans ont une limite de temps d'écran quotidienne de 60 minutes, et les comptes pour les moins de 16 ans sont privés par défaut.

 

Les responsables de TikTok décrivent une fonctionnalité de « Contrôle Parental » qui permet aux parents de gérer les comptes de leurs enfants, ainsi que des ressources éducatives via le Centre de sécurité pour les adolescents et le Guide des parents, aidant les enfants et les adolescents à comprendre les fonctionnalités et outils de sécurité sur la plateforme, ainsi qu'un guide spécialement pour les parents et les tuteurs.

 

Ils soulignent également « la construction de la confiance par l'action en créant une plateforme basée sur la transparence et des normes de sécurité strictes. Protéger les adolescents est une priorité absolue, et les mesures de sécurité sont intégrées aux politiques, produits et mécanismes d'application dès le départ. »

 

Malgré ces assurances, les préoccupations subsistent. Des recherches indépendantes montrent un écart entre ce que promettent les plateformes et ce que vivent réellement les enfants. Les algorithmes semblent encore échouer à protéger pleinement les enfants des contenus nuisibles, et les défis mortels continuent d'apparaître malgré les interdictions.

 

En conclusion, la responsabilité semble partagée entre les plateformes, les législateurs et les parents. La véritable question reste : comment protéger nos enfants tout en leur permettant de bénéficier de cette technologie ?