Pais em luto pediram ao TikTok verificação de idade, mas obtiveram classificações de maturidade

Pais em luto pediram ao TikTok verificação de idade, mas obtiveram classificações de maturidade

Os recursos de segurança do TikTok se tornaram recentemente o foco de uma ação movida por pais que afirmam que o design viciante do aplicativo é responsável pela morte de pelo menos sete crianças, seis das quais eram muito jovens para estar no TikTok. Esses pais sugeriram que o TikTok tomasse medidas para proteger os usuários jovens, instando a plataforma a adicionar um processo de verificação de idade para restringir o conteúdo ou encerrar as contas de usuários menores de 13 anos – a idade mínima necessária para ingressar no TikTok.

Essa não é a direção que o TikTok decidiu seguir. Pelo menos, ainda não. Em vez disso, o TikTok anunciou na quarta-feira que está adicionando novas medidas de segurança para todos os usuários, projetadas para limitar a exposição a conteúdo prejudicial e dar aos usuários mais controle sobre o que aparece em seus feeds. Isso inclui dar aos usuários o poder de bloquear conteúdo que contenha certas palavras, hashtags ou sons.

Concentrando-se especificamente na melhoria das medidas de segurança para os “membros da comunidade adolescente” do TikTok, o TikTok também está “trabalhando para construir um novo sistema para organizar o conteúdo com base na maturidade temática” – essencialmente, criando classificações de maturidade para vídeos do TikTok, como as classificações que você vê em filmes ou videogames.

“Nas próximas semanas, começaremos a apresentar uma versão inicial para ajudar a impedir que conteúdo com temas abertamente maduros alcance públicos entre 13 e 17 anos”, escreveu o chefe de confiança e segurança do TikTok, Cormac Keenan, na postagem do blog.

Além disso, o TikTok forneceu uma atualização sobre as etapas anunciadas anteriormente que está tomando com seu algoritmo para proteger os usuários de rolar infinitamente por “experiências de visualização potencialmente desafiadoras ou acionadas”.

“No ano passado, começamos a testar maneiras de evitar recomendar uma série de conteúdo semelhante em tópicos que podem ser bons como um único vídeo, mas potencialmente problemáticos se vistos repetidamente, como tópicos relacionados a dieta, condicionamento físico extremo, tristeza e outros bem-estar. tópicos”, escreveu Keenan. “Também estamos testando maneiras de reconhecer se nosso sistema pode recomendar inadvertidamente uma gama mais restrita de conteúdo para um espectador.”

Provavelmente porque os padrões da comunidade do TikTok limitam as contas a 13 anos ou mais, o TikTok até agora discutiu apenas o impacto desejado dos novos recursos de segurança em usuários adultos e adolescentes. Isso significa que o TikTok ainda precisa tomar medidas para resolver as preocupações que os pais têm sobre “centenas de milhares de crianças de até 6 anos”, que o processo alega que o TikTok sabe que “estão usando seu produto de mídia social” sem recursos de segurança projetados apenas para eles.

O TikTok não respondeu imediatamente a um pedido de comentário sobre os novos recursos de segurança ou sobre como as classificações de maturidade funcionarão. Não está claro se existem recursos de segurança futuros – como verificação de idade – planejados para lidar com as crescentes preocupações sobre crianças menores de 13 anos supostamente sendo prejudicadas ao usar o aplicativo.

Leave a Comment