O YouTube prefere recomendar vídeos inadequados em vez de úteis, descobrem os pesquisadores

Às vezes, o YouTube é capaz de enviar um usuário em uma jornada de várias horas de um vídeo em destaque para o próximo. Uma pesquisa da Mozilla Foundation mostra que os algoritmos de recomendação de serviço de vídeo são mais propensos a recomendar a visualização de conteúdo “viral” e com informações incorretas do que conteúdo que seja interessante para um usuário específico.

Technohoop.com

O estudo envolveu mais de 37.000 voluntários. A Mozilla descobriu que 71% dos vídeos recomendados do YouTube foram sinalizados como “indesejados” pelos entrevistados. Os participantes usaram uma extensão de navegador personalizada que rastreou o uso do YouTube por mais de 10 meses e, quando sinalizaram um vídeo como “indesejado”, a extensão registrou se os usuários o encontraram por conta própria ou navegaram na seção de recomendações.

No estudo, esses materiais foram chamados de YouTube Regrets (YouTube com arrependimento), simbolizando experiências negativas. Em particular, estamos falando de vídeos que defendem conceitos pseudocientíficos, teorias da conspiração, vídeos de crueldade contra animais e vídeos relacionados a outros tópicos. Os pais de uma menina de 10 anos relataram que um tópico de links a levou a artigos sobre dietas “radicais” enquanto ela procurava vídeos de dança. Como resultado, isso levou a uma mudança negativa nos hábitos alimentares da criança.

Descobriu-se (de repente) que as recomendações incluíam vídeos que poderiam se tornar virais. Se um conteúdo potencialmente malicioso é capaz de coletar milhares ou milhões de visualizações, é muito provável que seja recomendado ao usuário em vez do que ele realmente deseja.

Sabe-se que o YouTube removeu 200 vídeos marcados no decorrer do estudo como inadequados, e um representante do serviço disse que “a empresa reduziu a participação do conteúdo nas recomendações, consideradas maliciosas, para um por cento ou menos”. Além disso, no ano passado, o serviço fez cerca de 30 alterações nos algoritmos para lidar com o problema mencionado. Um sistema automatizado detecta e remove 94% dos vídeos que violam as políticas do YouTube, mesmo antes de os vídeos atingirem 10 visualizações.

Embora seja relativamente fácil para as empresas filtrar conteúdo relacionado à violência e racismo, vídeos pseudocientíficos e outros vídeos inadequados são muito mais difíceis de identificar – os autores citam a liberdade de expressão ou postam conteúdo apenas para fins de entretenimento.

Além disso, o YouTube, como era de se esperar, se recusa a divulgar informações sobre como funciona exatamente o algoritmo de seleção dos vídeos recomendados. Isso torna quase impossível para os usuários avaliarem de forma realista se o serviço está fazendo o melhor para lidar com conteúdo impróprio.

avalanche

Postagens recentes

A Wikipédia baniu completamente artigos escritos por redes neurais.

A nova política da Wikipédia não permitirá mais que editores escrevam ou reescrevam artigos usando…

57 minutos atrás

Orçamentos fora de controle: um jornalista explica por que a indústria de jogos está em crise.

O repórter da Bloomberg, Jason Schreier, descreveu o que ele acredita ser um dos principais…

1 hora atrás

Um entusiasta realizou um pouso virtual na Lua usando um computador ZX Spectrum de 40 anos.

O entusiasta do espaço e blogueiro Scott Manley "pousou" com sucesso na Lua usando um…

1 hora atrás

A Panasonic já esgotou as baterias que lançará no próximo ano — o boom da IA ​​chegou também a este setor.

A escassez de chips de memória devido às necessidades de inteligência artificial também afetou as…

1 hora atrás

Um sistema de resfriamento líquido foi adicionado ao MacBook Neo, dobrando seu desempenho em No Man’s Sky.

Um experimento realizado com um MacBook Neo equipado com o processador A18 Pro demonstrou que,…

1 hora atrás

A Rostelecom registrou um crescimento explosivo na popularidade dos telefones fixos.

Os telefones fixos eram extremamente populares na URSS no século passado — as pessoas esperavam…

1 hora atrás