30 C
France
vendredi, avril 19, 2024

s'abonner

TikTok peut transmettre du contenu potentiellement dangereux aux adolescents en quelques minutes, selon une étude

 

TikTok peut faire apparaître des contenus potentiellement dangereux liés au suicide et aux troubles de l’alimentation pour les adolescents quelques minutes après la création d’un compte, suggère une nouvelle étude, ajoutant probablement à l’examen croissant de l’impact de l’application sur ses plus jeunes utilisateurs.

Dans un rapport publié mercredi, le Center for Countering Digital Hate (CCDH) à but non lucratif a constaté qu’il peut prendre moins de trois minutes après la création d’un compte TikTok pour voir le contenu lié au suicide et environ cinq minutes de plus pour trouver une communauté faisant la promotion contenu de trouble de l’alimentation.

Les chercheurs ont déclaré avoir créé huit nouveaux comptes aux États-Unis, au Royaume-Uni, au Canada et en Australie à l’âge minimum d’utilisation de TikTok de 13 ans. Ces comptes se sont brièvement arrêtés et ont aimé le contenu sur l’image corporelle et la santé mentale. Le CCDH a déclaré que l’application recommandait des vidéos sur l’image corporelle et la santé mentale environ toutes les 39 secondes sur une période de 30 minutes.

Le rapport intervient alors que les législateurs des États et du gouvernement fédéral cherchent des moyens de sévir contre TikTok pour des raisons de confidentialité et de sécurité, ainsi que de déterminer si l’application est appropriée pour les adolescents. Cela survient également plus d’un an après que les dirigeants des plates-formes de médias sociaux, y compris TikTok, ont été confrontés à des questions difficiles de la part des législateurs lors d’une série d’audiences du Congrès sur la manière dont leurs plates-formes peuvent diriger les jeunes utilisateurs – en particulier les adolescentes – vers des contenus préjudiciables, nuisant à leur santé mentale et l’image corporelle.

Après ces audiences, qui ont suivi les révélations de la dénonciatrice de Facebook Frances Haugen sur l’impact d’Instagram sur les adolescents, les entreprises se sont engagées à changer. Mais les dernières conclusions du CCDH suggèrent qu’il reste encore du travail à faire.

« Les résultats sont le cauchemar de tous les parents : les flux des jeunes sont bombardés de contenus nocifs et déchirants qui peuvent avoir un impact cumulatif significatif sur leur compréhension du monde qui les entoure et sur leur santé physique et mentale », a déclaré Imran Ahmed, PDG du CCDH, dit dans le rapport.

Un porte-parole de TikTok a repoussé l’étude, affirmant qu’il s’agissait d’une représentation inexacte de l’expérience de visionnage sur la plate-forme pour diverses raisons, notamment la petite taille de l’échantillon, la fenêtre limitée de 30 minutes pour les tests et la façon dont les comptes défilaient. une série de sujets sans rapport pour rechercher d’autres contenus.

« Cette activité et l’expérience qui en résulte ne reflètent pas le comportement authentique ou les expériences de visionnage de vraies personnes », a déclaré le porte-parole de TikTok à CNN. «Nous consultons régulièrement des experts de la santé, supprimons les violations de nos politiques et donnons accès à des ressources de soutien à toute personne dans le besoin. Nous sommes conscients que le contenu déclencheur est unique à chaque individu et restons concentrés sur la création d’un espace sûr et confortable pour tout le monde, y compris les personnes qui choisissent de partager leurs parcours de rétablissement ou d’éduquer les autres sur ces sujets importants.

Le porte-parole a déclaré que le CCDH ne fait pas de distinction entre les vidéos positives et négatives sur des sujets donnés, ajoutant que les gens partagent souvent des histoires stimulantes sur la guérison des troubles de l’alimentation.

TikTok a déclaré qu’il continuait à déployer de nouvelles protections pour ses utilisateurs, y compris des moyens de filtrer les vidéos matures ou « potentiellement problématiques ». En juillet, il a ajouté un « score de maturité » aux vidéos détectées comme contenant potentiellement des thèmes matures ou complexes ainsi qu’une fonctionnalité pour aider les gens à décider combien de temps ils veulent passer sur les vidéos TikTok, à définir des pauses d’écran régulières et à fournir un tableau de bord qui détaille le nombre de fois qu’ils ont ouvert l’application. TikTok propose également une poignée de contrôles parentaux.

Ce n’est pas la première fois que des algorithmes de réseaux sociaux sont testés. En octobre 2021, le personnel du sénateur américain Richard Blumenthal a enregistré un compte Instagram en tant que jeune fille de 13 ans et a commencé à suivre certains comptes de régimes et de troubles de l’alimentation (ces derniers étant censés être interdits par Instagram). L’algorithme d’Instagram a rapidement commencé à recommander presque exclusivement que le compte des jeunes adolescents suive de plus en plus de comptes de régimes extrêmes, a déclaré le sénateur à CNN à l’époque.

(Après que CNN ait envoyé un échantillon de cette liste de cinq comptes à Instagram pour commentaires, la société les a supprimés, affirmant qu’ils avaient tous enfreint les politiques d’Instagram contre l’encouragement des troubles de l’alimentation.)

TikTok a déclaré qu’il n’autorisait pas le contenu décrivant, promouvant, normalisant ou glorifiant des activités qui pourraient conduire au suicide ou à l’automutilation. Parmi les vidéos supprimées pour avoir enfreint ses politiques sur le suicide et le contenu d’automutilation d’avril à juin de cette année, 93,4 % ont été supprimées à zéro vue, 91,5 % ont été supprimées dans les 24 heures suivant leur publication et 97,1 % ont été supprimées avant tout signalement, selon l’entreprise.

Le porte-parole a déclaré à CNN que lorsqu’une personne recherche des mots ou des phrases interdits tels que #selfharm, elle ne verra aucun résultat et sera plutôt redirigée vers les ressources d’assistance locales.

Pourtant, le CCDH affirme que davantage doit être fait pour restreindre le contenu spécifique sur TikTok et renforcer les protections pour les jeunes utilisateurs.

« Ce rapport souligne le besoin urgent d’une réforme des espaces en ligne », a déclaré Ahmed du CCDH. « Sans surveillance, la plate-forme opaque de TikTok continuera de profiter en servant ses utilisateurs – des enfants aussi jeunes que 13 ans, rappelez-vous – un contenu de plus en plus intense et pénible sans vérifications, ressources ou soutien.

 

Source:

  • https://unsplash.com/
  • https://edition.cnn.com/

Related Articles

Stay Connected

96,645FansJ'aime
0SuiveursSuivre
- Advertisement -

Latest Articles