O Wall Street Journal (WSJ) investigou os perigos potenciais dos algoritmos de recomendação do TikTok, descobrindo que alguns usuários estavam recebendo materiais promovendo comportamentos alimentares não saudáveis. Depois que a publicação solicitou comentários à administração do TikTok, o serviço anunciou sua intenção de alterar esses algoritmos.

Fonte da imagem: antonbe / pixabay.com

A investigação do WSJ começou com histórias de adolescentes que, supostamente, devido ao TikTok, começaram a se interessar pelo emagrecimento, desintoxicação e dietas potencialmente perigosas. Para confirmar o perigo potencial do serviço, os jornalistas realizaram um experimento criando mais de 100 contas no TikTok, em que vários vídeos foram “vistos” com o mínimo de participação humana. Ao mesmo tempo, 12 dessas contas foram listadas como pertencentes a jovens de 13 anos e “assistiram” a vídeos sobre perda de peso, álcool e jogos de azar. Assim que um dos bots parou de se interessar por vídeos de jogos de azar e mudou para o tópico de perda de peso, o algoritmo TikTok se ajustou às suas novas “preferências”, oferecendo materiais sobre um tópico diferente.

Com base nos resultados do experimento, foi calculado que um total de 225.000 vídeos foram vistos por bots, dos quais 32.700 estavam relacionados ao tema perda de peso por descrição ou outros metadados. Ao mesmo tempo, 11.615 vídeos por palavras-chave na descrição corresponderam ao tópico de transtornos alimentares, e 4.402 descrições corresponderam ao tópico de normalização de tais transtornos. Em alguns casos, as palavras-chave foram fornecidas em grafias diferentes para não cair nas sanções do TikTok. Quando o WSJ informou à administração do serviço sobre 2.960 vídeos potencialmente perigosos, 1.778 deles foram prontamente removidos e não está claro quem fez isso: seus autores ou a plataforma. Após o WSJ, em antecipação à publicação do material, contatar a administração do TikTok com um pedido de comentários, o serviço anunciou oficialmente sua intenção de ajustar o trabalho de algoritmos de recomendação – provavelmente

A plataforma observou que nem sempre é útil assistir a vídeos sobre alguns tópicos em grandes quantidades – em particular, trata-se de questões de perda de peso e atividade física. Agora, especialistas em serviço estão tentando limitar o trabalho de um algoritmo de recomendação para conteúdo que não viole os termos de serviço, mas pode ser perigoso se consumido em quantidades excessivas. Além disso, está sendo testada uma ferramenta que permitirá aos usuários limitar de forma independente o trabalho de recomendações para certas palavras-chave ou hashtags.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *