Segundo fontes online, o sistema de inteligência artificial do Facebook, usado para localizar e bloquear conteúdo problemático na rede social da empresa, não é capaz de realizar as tarefas com eficácia. Escreve sobre esta edição do The Wall Street Journal com referência a documentos internos do gigante das redes sociais.

Imagem: foxbusiness.com

De acordo com os dados disponíveis, o sistema de IA do Facebook não é capaz de identificar efetivamente vídeos em primeira pessoa, bem como conteúdo que contenha linguagem racista, discurso de ódio e violência excessiva. A fonte observa que, em alguns casos, o algoritmo não consegue distinguir brigas de galos de acidentes de carro. Os documentos do Facebook mostram que, para conteúdo com discurso de ódio, o sistema de IA detecta e bloqueia apenas uma pequena proporção dessas postagens (menos de 10%). Nos casos em que o algoritmo não pode fornecer uma conclusão clara sobre a necessidade de bloquear a postagem de um determinado usuário, o conteúdo controverso é mostrado com menos frequência, mas a conta que o publicou permanece impune.

Há cerca de dois anos, o Facebook reduziu o tempo que os moderadores humanos levavam para resolver as reclamações e também fez uma série de outras mudanças no fluxo de trabalho para reduzir o número geral de reclamações. Ao mesmo tempo, os funcionários responsáveis ​​por proteger a plataforma do Facebook de conteúdo impróprio informaram à administração que o algoritmo de IA usado não era eficaz o suficiente. O engenheiro sênior estimou que os sistemas automatizados da empresa removeram mensagens que geravam apenas 2% das visualizações de discurso de ódio na plataforma. Ele também observou que, se no futuro próximo nenhuma mudança significativa for feita na estratégia da empresa em termos de moderação de conteúdo, no curto prazo o algoritmo de IA identificará não mais do que 10-20% do conteúdo problemático.

O porta-voz do Facebook, Andy Stone, disse que as porcentagens expressas no relatório estão relacionadas a postagens que foram excluídas diretamente pelo sistema de IA e não incluem conteúdo processado de outras maneiras, incluindo rebaixamento de postagens. Os dados divulgados contrastam fortemente com as expectativas do CEO da gigante das mídias sociais, Mark Zuckerberg, que disse anteriormente que o sistema de IA da empresa será capaz de detectar “a grande maioria do conteúdo problemático” até o final de 2019. Um porta-voz da empresa também observou que é mais importante considerar outros números que mostram uma diminuição na quantidade total de conteúdo odioso na plataforma.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *