A OpenAI provocou um boom generativo de IA no ano passado quando lançou o ChatGPT, um chatbot que alcançou 100 milhões de usuários mensais em dois meses, estabelecendo o recorde de aplicativo de crescimento mais rápido. No momento, o problema de desinformar os usuários com inteligência artificial tornou-se agudo e a empresa propôs sua própria solução para combater esse fenômeno. Alguns especialistas independentes expressaram ceticismo sobre a eficácia do método proposto.

“Fonte da imagem: pixabay”

Desinformação de IA ou “alucinações” ocorrem quando modelos como ChatGPT ou Google Bard fabricam informações completamente, comportando-se como se estivessem declarando fatos. “Mesmo os modelos de IA mais avançados tendem a fornecer informações falsas. Eles mostram uma tendência a inventar fatos em momentos de incerteza, escrevem os pesquisadores da OpenAI em seu relatório. “Essas alucinações causam muitos problemas em áreas que exigem raciocínio em várias etapas, já que um erro lógico é suficiente para inviabilizar uma solução muito maior.”

“A nova estratégia anti-ficção da OpenAI é treinar modelos de IA para se recompensarem por cada etapa correta de raciocínio quando chegarem a uma resposta, em vez de recompensar apenas a conclusão final correta. Os pesquisadores chamaram essa abordagem de “controle de processo”. Na opinião deles, isso pode levar à criação de uma IA mais lógica, já que essa estratégia incentiva os modelos a seguirem uma “cadeia de pensamento” semelhante a um ser humano”.

«Detectar e mitigar erros de lógica de modelo, ou alucinações, é um passo crítico para criar uma AGI [inteligência artificial de propósito geral] consistente”, disse Karl Cobbe, matemático da OpenAI, observando que, embora a empresa não tenha inventado uma abordagem baseada na supervisão o processo, mas ela ajuda a levá-lo adiante. De acordo com Kobbe, a OpenAI disponibilizou um conjunto de dados de 800.000 rótulos que foi usado para treinar o modelo personalizado mencionado no trabalho de pesquisa.

Ben Winters, consultor sênior da ePrivacy Clearinghouse e chefe do AI and Human Rights Project, expressou suas reservas sobre o estudo, dizendo que gostaria de explorar o conjunto de dados completo e os exemplos que o acompanham. “Eu simplesmente não acho que o estudo sozinho faça muito para mitigar as preocupações sobre desinformação e resultados enganosos quando a IA está realmente sendo usada na vida real”, disse Winters.

A diretora administrativa do AI Now Institute, Sarah Myers West, disse que a OpenAI não forneceu detalhes importantes sobre os dados usados ​​para treinar e testar o GPT-4. “Portanto, ainda há uma enorme falta de transparência que impede qualquer esforço significativo para responsabilizar a IA, mesmo quando esses sistemas já afetam diretamente as pessoas”, disse ela.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *