OpenAI propõe GPT-4 como moderador imparcial

A OpenAI disse que seus desenvolvimentos podem facilitar a solução de uma das tarefas técnicas mais difíceis e desagradáveis ​​- a tarefa de moderação de conteúdo. O grande modelo de linguagem GPT-4 é capaz de substituir dezenas de milhares de moderadores humanos, demonstrando a mesma alta precisão e consistência ainda maior.

Fonte da imagem: ilgmyzin / unsplash.com

A OpenAI anunciou em um blog corporativo que já está usando o GPT-4 para refinar sua própria política de conteúdo, rotulagem e tomada de decisão. O desenvolvedor ainda citou uma série de vantagens da inteligência artificial sobre as abordagens tradicionais de moderação de conteúdo.

Primeiro, os humanos interpretam a política de maneira diferente, enquanto as máquinas são consistentes em seus julgamentos. As diretrizes de moderação podem ser volumosas e mudar constantemente – leva muito tempo para as pessoas aprenderem e se adaptarem às mudanças, e grandes modelos de linguagem implementam novas políticas instantaneamente. Em segundo lugar, o GPT-4 pode ajudar a desenvolver uma nova política em questão de horas. O processo de elaboração de rótulos, coleta de feedback e esclarecimentos geralmente leva várias semanas ou até meses. Em terceiro lugar, não devemos esquecer o bem-estar psicológico dos funcionários que, em serviço, estão constantemente expostos a conteúdos maliciosos.

As redes sociais populares existem há quase duas décadas, para não falar de outras comunidades online, mas a moderação de conteúdo ainda é um dos maiores desafios para as plataformas online. Meta✴, Google e TikTok formaram exércitos de moderadores que precisam visualizar conteúdos terríveis e muitas vezes traumáticos. A maioria deles vive em países em desenvolvimento com baixos salários, trabalha em empresas terceirizadas e tenta lidar com traumas psicológicos por conta própria com o mínimo de assistência.

Fonte da imagem: Dkoi / unsplash.com

A própria OpenAI ainda depende fortemente de recursos humanos – ela contrata trabalhadores de países africanos para comentar e marcar o conteúdo. Esse conteúdo pode ser problemático, o que torna estressante o trabalho desses funcionários com baixo salário. E os mencionados Meta✴, Google e TikTok usam modelos de AI de seu próprio design, além de moderadores humanos, portanto, a solução proposta pelo OpenAI será útil para pequenas empresas que não possuem recursos para desenvolver seus próprios sistemas.

Toda plataforma reconhece que não existem mecanismos ideais para moderação em larga escala: tanto humanos quanto máquinas cometem erros. A taxa de erro pode ser baixa, mas milhões de postagens potencialmente prejudiciais ainda chegam ao domínio público – e provavelmente um número igual de conteúdo inofensivo é oculto ou removido. Além disso, ainda existe uma “zona cinzenta” de conteúdo impreciso ou agressivo que atende aos requisitos da política de moderação, mas confunde os sistemas automatizados – esse conteúdo é difícil de avaliar mesmo para moderadores humanos, e as máquinas geralmente cometem erros. O mesmo se aplica a publicações de natureza satírica e materiais que documentam crimes ou abusos de autoridade por parte de agentes da lei. Finalmente, não devemos esquecer os problemas internos característicos dos sistemas de IA – “alucinações” e “deriva”,

avalanche

Postagens recentes

O smartphone gamer Infinix GT 50 Pro, com sistema de resfriamento avançado, está prestes a ser lançado.

A fabricante de eletrônicos Infinix anunciou o lançamento do smartphone gamer GT 50 Pro, equipado…

56 minutos atrás

A startup de um cientista da NASA anunciou o desenvolvimento de uma fonte de energia inesgotável que utiliza energia do vácuo.

A startup recém-apresentada, Casimir, anunciou um desenvolvimento notável: uma fonte de energia inesgotável alimentada por…

56 minutos atrás

O AMD EPYC conquista uma fatia recorde de 46,2% do mercado de processadores para servidores, tudo graças a agentes de IA.

Os processadores para servidores da AMD demonstraram um sucesso significativo: ao final do primeiro trimestre…

56 minutos atrás

Bem-vindos ao Volnapocalipse: a IA está encontrando vulnerabilidades mais rápido do que conseguimos corrigi-las.

A Palo Alto Networks, empresa de cibersegurança sediada na Califórnia, normalmente corrige cinco vulnerabilidades por…

1 hora atrás

Claude Antrópico ajudou a recuperar o equivalente a US$ 400.000 em Bitcoin, mas ele não invadiu a blockchain.

O usuário de mídia social X, apelidado de Cprkrn, compartilhou como o assistente de inteligência…

1 hora atrás