TikTok tomará medidas para combater desafios perigosos

O serviço de vídeo curto TikTok começou a combater a proliferação de desafios potencialmente perigosos e vídeos de auto-mutilação encenados na plataforma. Alguns deles são divertidos e inofensivos, enquanto outros são mais arriscados e traumáticos.

Fonte da imagem: antonbe / pixabay.com

A administração do serviço encomendou uma pesquisa com mais de 10.000 adolescentes, pais e professores em vários países, incluindo os Estados Unidos e o Reino Unido. Ele descobriu que 31% dos adolescentes participaram de algum tipo de desafio online. Os entrevistados foram questionados sobre como avaliam o nível de risco de qualquer desafio que enfrentaram recentemente nos serviços online, não necessariamente no TikTok. Cerca de 48% disseram que era seguro, 32% consideraram que era de baixo risco e 14% disseram que era arriscado ou perigoso. Outros 3% qualificaram o desafio como “muito perigoso” e outros 0,3% disseram que eles próprios participaram de tal desafio.

Mais importante, 46% dos adolescentes admitiram que gostariam de receber mais informações sobre vídeos encenados sobre o tema da automutilação e suicídio, e outros 31% disseram que “experimentaram sua influência negativa” – nem sempre é fácil de reconhecer tais performances. Além disso, 37% dos adultos disseram ter dificuldade em discutir esses assuntos sem chamar atenção indevida para eles. A TikTok anunciou que já está excluindo postagens desse tipo, pois podem afetar o bem-estar dos adolescentes, que muitas vezes percebem a produção como uma realidade.

O serviço também vai ampliar o conjunto de ferramentas técnicas que alertam o serviço de segurança para um aumento acentuado no número de violações associadas a quaisquer hashtags. A coleção de conteúdo relacionado será especialmente marcada, se necessário. O conteúdo desta tag foi desenvolvido em colaboração com um psiquiatra infantil e um cientista comportamental. E para os usuários preocupados com esses problemas, a TikTok convida você a visitar a central de segurança do serviço para descobrir como reconhecer esse conteúdo potencialmente perigoso.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *