
Às vezes, o YouTube é capaz de enviar um usuário em uma jornada de várias horas de um vídeo em destaque para o próximo. Uma pesquisa da Mozilla Foundation mostra que os algoritmos de recomendação de serviço de vídeo são mais propensos a recomendar a visualização de conteúdo “viral” e com informações incorretas do que conteúdo que seja interessante para um usuário específico.
Technohoop.com
O estudo envolveu mais de 37.000 voluntários. A Mozilla descobriu que 71% dos vídeos recomendados do YouTube foram sinalizados como “indesejados” pelos entrevistados. Os participantes usaram uma extensão de navegador personalizada que rastreou o uso do YouTube por mais de 10 meses e, quando sinalizaram um vídeo como “indesejado”, a extensão registrou se os usuários o encontraram por conta própria ou navegaram na seção de recomendações.
No estudo, esses materiais foram chamados de YouTube Regrets (YouTube com arrependimento), simbolizando experiências negativas. Em particular, estamos falando de vídeos que defendem conceitos pseudocientíficos, teorias da conspiração, vídeos de crueldade contra animais e vídeos relacionados a outros tópicos. Os pais de uma menina de 10 anos relataram que um tópico de links a levou a artigos sobre dietas “radicais” enquanto ela procurava vídeos de dança. Como resultado, isso levou a uma mudança negativa nos hábitos alimentares da criança.
Descobriu-se (de repente) que as recomendações incluíam vídeos que poderiam se tornar virais. Se um conteúdo potencialmente malicioso é capaz de coletar milhares ou milhões de visualizações, é muito provável que seja recomendado ao usuário em vez do que ele realmente deseja.
Sabe-se que o YouTube removeu 200 vídeos marcados no decorrer do estudo como inadequados, e um representante do serviço disse que “a empresa reduziu a participação do conteúdo nas recomendações, consideradas maliciosas, para um por cento ou menos”. Além disso, no ano passado, o serviço fez cerca de 30 alterações nos algoritmos para lidar com o problema mencionado. Um sistema automatizado detecta e remove 94% dos vídeos que violam as políticas do YouTube, mesmo antes de os vídeos atingirem 10 visualizações.
Embora seja relativamente fácil para as empresas filtrar conteúdo relacionado à violência e racismo, vídeos pseudocientíficos e outros vídeos inadequados são muito mais difíceis de identificar – os autores citam a liberdade de expressão ou postam conteúdo apenas para fins de entretenimento.
Além disso, o YouTube, como era de se esperar, se recusa a divulgar informações sobre como funciona exatamente o algoritmo de seleção dos vídeos recomendados. Isso torna quase impossível para os usuários avaliarem de forma realista se o serviço está fazendo o melhor para lidar com conteúdo impróprio.