L’application de partage de vidéos a autorisé de manière inappropriée l’accès à plus d’un million d’enfants mineurs au Royaume-Uni en 2020, ont déclaré les régulateurs.
L’autorité britannique de protection des données a infligé mardi une amende de 15,9 millions de dollars à TikTok, l’application populaire de partage de vidéos, affirmant que la plateforme n’avait pas respecté les règles de protection des données destinées à protéger les enfants en ligne.
Le bureau du commissaire à l’information a déclaré que TikTok avait autorisé de manière inappropriée jusqu’à 1,4 million d’enfants de moins de 13 ans à utiliser le service en 2020, enfreignant les règles britanniques de protection des données qui exigent le consentement des parents pour que les organisations utilisent les informations personnelles des enfants. TikTok n’a pas obtenu ce consentement, ont déclaré les régulateurs, même s’il aurait dû savoir que des enfants plus jeunes utilisaient le service.
L’enquête britannique a révélé que l’application de partage de vidéos n’en faisait pas assez pour identifier les utilisateurs mineurs ou les supprimer de la plate-forme, même si TikTok avait des règles interdisant aux enfants de moins de 13 ans de créer des comptes. TikTok n’a pas pris les mesures adéquates, ont déclaré les régulateurs, même après que certains employés seniors de la plate-forme de partage de vidéos ont fait part de leurs inquiétudes en interne concernant les enfants mineurs utilisant l’application.
TikTok, qui appartient au géant chinois de l’Internet ByteDance, a également fait l’objet d’un examen minutieux aux États-Unis. Le mois dernier, des membres du Congrès ont interrogé son directeur général, Shou Chew, sur les éventuels risques pour la sécurité nationale posés par la plateforme.
L’amende de confidentialité de TikTok souligne les préoccupations croissantes du public concernant les risques pour la santé mentale et la sécurité que les réseaux sociaux populaires peuvent poser pour certains enfants et adolescents. L’année dernière, des chercheurs ont rapporté que TikTok avait commencé à recommander du contenu lié aux troubles de l’alimentation et à l’automutilation aux utilisateurs de 13 ans dans les 30 minutes suivant leur adhésion à la plateforme.
Dans un communiqué, John Edwards, le commissaire britannique à l’information, a déclaré que les pratiques de TikTok auraient pu mettre les enfants en danger.
« On estime qu’un million de moins de 13 ans ont reçu un accès inapproprié à la plate-forme, TikTok collectant et utilisant leurs données personnelles », a déclaré M. Edwards dans le communiqué. « Cela signifie que leurs données peuvent avoir été utilisées pour les suivre et les profiler, livrant potentiellement un contenu nuisible et inapproprié lors de leur tout prochain défilement. »
Dans un communiqué, TikTok a déclaré qu’il n’était pas d’accord avec les conclusions des régulateurs et qu’il examinait l’affaire et envisageait les prochaines étapes.
« TikTok est une plateforme pour les utilisateurs âgés de 13 ans et plus », a déclaré la société dans le communiqué. « Nous investissons massivement pour aider à garder les moins de 13 ans hors de la plate-forme, et notre équipe de sécurité de 40 000 personnes travaille 24 heures sur 24 pour aider à assurer la sécurité de la plate-forme pour notre communauté. »
Ce n’est pas la première fois que les régulateurs citent la populaire application de partage de vidéos sur les problèmes de confidentialité des enfants. En 2019, Musical.ly, l’opérateur de la plate-forme désormais connue sous le nom de TikTok, a accepté de payer 5,7 millions de dollars pour régler les accusations portées par la Federal Trade Commission pour avoir violé les règles de protection de la vie privée en ligne des enfants aux États-Unis.
Depuis lors, les législateurs aux États-Unis et en Europe ont mis en place de nouvelles règles pour tenter de renforcer la protection des enfants en ligne.
En mars, l’Utah a adopté une loi radicale qui interdirait aux plateformes de médias sociaux comme TikTok et Instagram d’autoriser les mineurs de l’État à avoir des comptes sans le consentement parental. L’automne dernier, la Californie a adopté une loi qui obligerait de nombreux médias sociaux, jeux vidéo et autres applications à activer les paramètres de confidentialité les plus élevés – et à désactiver les fonctionnalités potentiellement risquées telles que la recherche d’amis qui permettent aux étrangers adultes de contacter les enfants – par défaut pour les mineurs.
Source: www.nytimes.com