A OpenAI disse que seus desenvolvimentos podem facilitar a solução de uma das tarefas técnicas mais difíceis e desagradáveis ​​- a tarefa de moderação de conteúdo. O grande modelo de linguagem GPT-4 é capaz de substituir dezenas de milhares de moderadores humanos, demonstrando a mesma alta precisão e consistência ainda maior.

Fonte da imagem: ilgmyzin / unsplash.com

A OpenAI anunciou em um blog corporativo que já está usando o GPT-4 para refinar sua própria política de conteúdo, rotulagem e tomada de decisão. O desenvolvedor ainda citou uma série de vantagens da inteligência artificial sobre as abordagens tradicionais de moderação de conteúdo.

Primeiro, os humanos interpretam a política de maneira diferente, enquanto as máquinas são consistentes em seus julgamentos. As diretrizes de moderação podem ser volumosas e mudar constantemente – leva muito tempo para as pessoas aprenderem e se adaptarem às mudanças, e grandes modelos de linguagem implementam novas políticas instantaneamente. Em segundo lugar, o GPT-4 pode ajudar a desenvolver uma nova política em questão de horas. O processo de elaboração de rótulos, coleta de feedback e esclarecimentos geralmente leva várias semanas ou até meses. Em terceiro lugar, não devemos esquecer o bem-estar psicológico dos funcionários que, em serviço, estão constantemente expostos a conteúdos maliciosos.

As redes sociais populares existem há quase duas décadas, para não falar de outras comunidades online, mas a moderação de conteúdo ainda é um dos maiores desafios para as plataformas online. Meta✴, Google e TikTok formaram exércitos de moderadores que precisam visualizar conteúdos terríveis e muitas vezes traumáticos. A maioria deles vive em países em desenvolvimento com baixos salários, trabalha em empresas terceirizadas e tenta lidar com traumas psicológicos por conta própria com o mínimo de assistência.

Fonte da imagem: Dkoi / unsplash.com

A própria OpenAI ainda depende fortemente de recursos humanos – ela contrata trabalhadores de países africanos para comentar e marcar o conteúdo. Esse conteúdo pode ser problemático, o que torna estressante o trabalho desses funcionários com baixo salário. E os mencionados Meta✴, Google e TikTok usam modelos de AI de seu próprio design, além de moderadores humanos, portanto, a solução proposta pelo OpenAI será útil para pequenas empresas que não possuem recursos para desenvolver seus próprios sistemas.

Toda plataforma reconhece que não existem mecanismos ideais para moderação em larga escala: tanto humanos quanto máquinas cometem erros. A taxa de erro pode ser baixa, mas milhões de postagens potencialmente prejudiciais ainda chegam ao domínio público – e provavelmente um número igual de conteúdo inofensivo é oculto ou removido. Além disso, ainda existe uma “zona cinzenta” de conteúdo impreciso ou agressivo que atende aos requisitos da política de moderação, mas confunde os sistemas automatizados – esse conteúdo é difícil de avaliar mesmo para moderadores humanos, e as máquinas geralmente cometem erros. O mesmo se aplica a publicações de natureza satírica e materiais que documentam crimes ou abusos de autoridade por parte de agentes da lei. Finalmente, não devemos esquecer os problemas internos característicos dos sistemas de IA – “alucinações” e “deriva”,

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *