O YouTube prefere recomendar vídeos inadequados em vez de úteis, descobrem os pesquisadores

Às vezes, o YouTube é capaz de enviar um usuário em uma jornada de várias horas de um vídeo em destaque para o próximo. Uma pesquisa da Mozilla Foundation mostra que os algoritmos de recomendação de serviço de vídeo são mais propensos a recomendar a visualização de conteúdo “viral” e com informações incorretas do que conteúdo que seja interessante para um usuário específico.

Technohoop.com

O estudo envolveu mais de 37.000 voluntários. A Mozilla descobriu que 71% dos vídeos recomendados do YouTube foram sinalizados como “indesejados” pelos entrevistados. Os participantes usaram uma extensão de navegador personalizada que rastreou o uso do YouTube por mais de 10 meses e, quando sinalizaram um vídeo como “indesejado”, a extensão registrou se os usuários o encontraram por conta própria ou navegaram na seção de recomendações.

No estudo, esses materiais foram chamados de YouTube Regrets (YouTube com arrependimento), simbolizando experiências negativas. Em particular, estamos falando de vídeos que defendem conceitos pseudocientíficos, teorias da conspiração, vídeos de crueldade contra animais e vídeos relacionados a outros tópicos. Os pais de uma menina de 10 anos relataram que um tópico de links a levou a artigos sobre dietas “radicais” enquanto ela procurava vídeos de dança. Como resultado, isso levou a uma mudança negativa nos hábitos alimentares da criança.

Descobriu-se (de repente) que as recomendações incluíam vídeos que poderiam se tornar virais. Se um conteúdo potencialmente malicioso é capaz de coletar milhares ou milhões de visualizações, é muito provável que seja recomendado ao usuário em vez do que ele realmente deseja.

Sabe-se que o YouTube removeu 200 vídeos marcados no decorrer do estudo como inadequados, e um representante do serviço disse que “a empresa reduziu a participação do conteúdo nas recomendações, consideradas maliciosas, para um por cento ou menos”. Além disso, no ano passado, o serviço fez cerca de 30 alterações nos algoritmos para lidar com o problema mencionado. Um sistema automatizado detecta e remove 94% dos vídeos que violam as políticas do YouTube, mesmo antes de os vídeos atingirem 10 visualizações.

Embora seja relativamente fácil para as empresas filtrar conteúdo relacionado à violência e racismo, vídeos pseudocientíficos e outros vídeos inadequados são muito mais difíceis de identificar – os autores citam a liberdade de expressão ou postam conteúdo apenas para fins de entretenimento.

Além disso, o YouTube, como era de se esperar, se recusa a divulgar informações sobre como funciona exatamente o algoritmo de seleção dos vídeos recomendados. Isso torna quase impossível para os usuários avaliarem de forma realista se o serviço está fazendo o melhor para lidar com conteúdo impróprio.

avalanche

Postagens recentes

Gemini aprenderá com seu histórico para personalizar as respostas — a IA poderá ser implementada no Gmail, Fotos e muito mais.

O Google está trabalhando para resolver um problema comum em assistentes de IA: a tendência…

4 horas atrás

Os desenvolvedores de Escape from Tarkov finalmente tiveram pena dos jogadores e tornaram o final menos brutal.

Os desenvolvedores do estúdio russo Battlestate Games anunciaram o lançamento de uma atualização técnica para…

6 horas atrás

O Reino Unido reprime o X: a rede social mudou sua política devido a deepfakes de conteúdo sexual provenientes do Grok.

O primeiro-ministro britânico, Keir Starmer, afirmou que a plataforma de mídia social X está "tomando…

7 horas atrás

O tablet Blackview MEGA 12, com tela grande e resistência à água, estará à venda em janeiro.

A Blackview anunciou o lançamento do tablet Blackview MEGA 12, que combina uma tela grande,…

8 horas atrás

A Phison demonstrou o aiDAPTIV+ em ação – IA até 10 vezes mais rápida em PCs comuns.

Na CES 2026, a Phison demonstrou PCs para o consumidor com o aiDAPTIV+, uma combinação…

8 horas atrás