WSJ: O algoritmo de IA do Facebook não consegue remover efetivamente o conteúdo problemático

Segundo fontes online, o sistema de inteligência artificial do Facebook, usado para localizar e bloquear conteúdo problemático na rede social da empresa, não é capaz de realizar as tarefas com eficácia. Escreve sobre esta edição do The Wall Street Journal com referência a documentos internos do gigante das redes sociais.

Imagem: foxbusiness.com

De acordo com os dados disponíveis, o sistema de IA do Facebook não é capaz de identificar efetivamente vídeos em primeira pessoa, bem como conteúdo que contenha linguagem racista, discurso de ódio e violência excessiva. A fonte observa que, em alguns casos, o algoritmo não consegue distinguir brigas de galos de acidentes de carro. Os documentos do Facebook mostram que, para conteúdo com discurso de ódio, o sistema de IA detecta e bloqueia apenas uma pequena proporção dessas postagens (menos de 10%). Nos casos em que o algoritmo não pode fornecer uma conclusão clara sobre a necessidade de bloquear a postagem de um determinado usuário, o conteúdo controverso é mostrado com menos frequência, mas a conta que o publicou permanece impune.

Há cerca de dois anos, o Facebook reduziu o tempo que os moderadores humanos levavam para resolver as reclamações e também fez uma série de outras mudanças no fluxo de trabalho para reduzir o número geral de reclamações. Ao mesmo tempo, os funcionários responsáveis ​​por proteger a plataforma do Facebook de conteúdo impróprio informaram à administração que o algoritmo de IA usado não era eficaz o suficiente. O engenheiro sênior estimou que os sistemas automatizados da empresa removeram mensagens que geravam apenas 2% das visualizações de discurso de ódio na plataforma. Ele também observou que, se no futuro próximo nenhuma mudança significativa for feita na estratégia da empresa em termos de moderação de conteúdo, no curto prazo o algoritmo de IA identificará não mais do que 10-20% do conteúdo problemático.

O porta-voz do Facebook, Andy Stone, disse que as porcentagens expressas no relatório estão relacionadas a postagens que foram excluídas diretamente pelo sistema de IA e não incluem conteúdo processado de outras maneiras, incluindo rebaixamento de postagens. Os dados divulgados contrastam fortemente com as expectativas do CEO da gigante das mídias sociais, Mark Zuckerberg, que disse anteriormente que o sistema de IA da empresa será capaz de detectar “a grande maioria do conteúdo problemático” até o final de 2019. Um porta-voz da empresa também observou que é mais importante considerar outros números que mostram uma diminuição na quantidade total de conteúdo odioso na plataforma.

avalanche

Postagens recentes

Os preços da memória DRAM subiram quase 10% em uma semana, devido à retenção de chips por parte dos fornecedores.

Os preços à vista no mercado de DRAM continuaram a subir de forma constante, apesar…

33 minutos atrás

Os EUA são líderes no desenvolvimento de centros de dados, mas o ritmo de crescimento na China permanece um mistério.

Atualmente, 1.947 novos projetos de data centers estão em andamento em todo o mundo —…

44 minutos atrás

A primeira atualização do Windows 11 de 2026 foi lançada.

A Microsoft lançou as primeiras atualizações de segurança para o Windows 11 em 2026, que…

1 hora atrás

Golpistas de criptomoedas roubaram US$ 17 bilhões em 2025 – graças à inteligência artificial, o valor médio dos golpes aumentou 253%.

2025 foi o ano do maior aumento na receita proveniente de fraudes com criptomoedas. Analistas…

1 hora atrás

As vendas de veículos elétricos e híbridos cresceram 20% no ano passado, apesar do ceticismo.

No ano passado, a mídia começou a promover ativamente o tema da queda na demanda…

1 hora atrás

Os testes de compatibilidade de jogos para Steam Machines serão menos rigorosos do que para o Steam Deck.

O programa de verificação de compatibilidade de jogos Steam Machine Verified, que será lançado em…

1 hora atrás