WSJ: O algoritmo de IA do Facebook não consegue remover efetivamente o conteúdo problemático

Segundo fontes online, o sistema de inteligência artificial do Facebook, usado para localizar e bloquear conteúdo problemático na rede social da empresa, não é capaz de realizar as tarefas com eficácia. Escreve sobre esta edição do The Wall Street Journal com referência a documentos internos do gigante das redes sociais.

Imagem: foxbusiness.com

De acordo com os dados disponíveis, o sistema de IA do Facebook não é capaz de identificar efetivamente vídeos em primeira pessoa, bem como conteúdo que contenha linguagem racista, discurso de ódio e violência excessiva. A fonte observa que, em alguns casos, o algoritmo não consegue distinguir brigas de galos de acidentes de carro. Os documentos do Facebook mostram que, para conteúdo com discurso de ódio, o sistema de IA detecta e bloqueia apenas uma pequena proporção dessas postagens (menos de 10%). Nos casos em que o algoritmo não pode fornecer uma conclusão clara sobre a necessidade de bloquear a postagem de um determinado usuário, o conteúdo controverso é mostrado com menos frequência, mas a conta que o publicou permanece impune.

Há cerca de dois anos, o Facebook reduziu o tempo que os moderadores humanos levavam para resolver as reclamações e também fez uma série de outras mudanças no fluxo de trabalho para reduzir o número geral de reclamações. Ao mesmo tempo, os funcionários responsáveis ​​por proteger a plataforma do Facebook de conteúdo impróprio informaram à administração que o algoritmo de IA usado não era eficaz o suficiente. O engenheiro sênior estimou que os sistemas automatizados da empresa removeram mensagens que geravam apenas 2% das visualizações de discurso de ódio na plataforma. Ele também observou que, se no futuro próximo nenhuma mudança significativa for feita na estratégia da empresa em termos de moderação de conteúdo, no curto prazo o algoritmo de IA identificará não mais do que 10-20% do conteúdo problemático.

O porta-voz do Facebook, Andy Stone, disse que as porcentagens expressas no relatório estão relacionadas a postagens que foram excluídas diretamente pelo sistema de IA e não incluem conteúdo processado de outras maneiras, incluindo rebaixamento de postagens. Os dados divulgados contrastam fortemente com as expectativas do CEO da gigante das mídias sociais, Mark Zuckerberg, que disse anteriormente que o sistema de IA da empresa será capaz de detectar “a grande maioria do conteúdo problemático” até o final de 2019. Um porta-voz da empresa também observou que é mais importante considerar outros números que mostram uma diminuição na quantidade total de conteúdo odioso na plataforma.

avalanche

Postagens recentes

Saros – Corrigindo bugs que nunca existiram. Análise / Jogos

Returnal foi um dos primeiros exclusivos da Sony, custando US$ 70 em vez dos então…

2 horas atrás

Saros – corrigindo bugs que não existiam. Avaliação

Returnal foi um dos primeiros exclusivos da Sony, custando US$ 70 em vez dos então…

2 horas atrás

“Uma ferramenta poderosa, mas não um substituto para artistas e criadores”: executivos da Sony esclareceram o uso de IA generativa em jogos do PlayStation.

O CEO da Sony, Hiroki Totoki, e o CEO da Sony Interactive Entertainment, Hideaki Nishino,…

3 horas atrás

A Logitech aumentará o investimento em produtos para jogos, inteligência artificial e segmentos corporativos.

Em declarações à Reuters, a CEO da Logitech, Hanneke Faber, afirmou que a empresa aumentará…

4 horas atrás

Os desenvolvedores de Eve Online foram forçados a mudar o nome do estúdio para evitar associações com o Partido Comunista Chinês.

A recente aquisição da independência da Pearl Abyss resultou em uma mudança de nome para…

4 horas atrás