Múltiplas violações das regras OpenAI encontradas na GPT Store

A OpenAI está enfrentando um problema de moderação de conteúdo em sua loja GPT, na qual os usuários estão a todo vapor criando chatbots que violam as regras da empresa. Uma investigação independente identificou mais de 100 ferramentas que permitem a geração de respostas médicas, jurídicas e outras respostas falsas proibidas pelas regras da OpenAI.

Fonte da imagem: OpenAI

Desde o lançamento da loja em novembro passado, a OpenAI disse que “os melhores GPTs serão inventados pela comunidade”. Porém, segundo o Gizmodo, nove meses após sua inauguração oficial, muitos desenvolvedores estão utilizando a plataforma para criar ferramentas que violam claramente as regras da empresa. Estes incluem chatbots que geram conteúdo explícito e ferramentas para ajudar os estudantes a enganar os sistemas de verificação de plágio, bem como bots que fornecem aconselhamento médico e jurídico supostamente confiável.

Fonte da imagem: Gizmodo

Na página principal da loja OpenAI, foram recentemente detectados pelo menos três usuários GPTs que aparentemente violaram as regras: um chatbot “Terapeuta – Psicólogo”, um “instrutor de fitness com doutorado” e Bypass Turnitin Detection, que promete ajudar os alunos para contornar o sistema anti-plágio Turnitin. Muitas das GPTs fraudulentas já foram usadas dezenas de milhares de vezes.

Em resposta às perguntas do Gizmodo sobre GPTs fraudulentos encontrados na loja, a OpenAI disse que “tomou medidas contra aqueles que violam as regras”. Uma combinação de sistemas automatizados, revisão humana e relatórios de usuários é usada para identificar e avaliar GPTs que potencialmente violam a política da empresa, de acordo com a porta-voz da empresa, Taya Christianson. No entanto, muitas das ferramentas identificadas, incluindo salas de chat que oferecem aconselhamento médico e auxiliam no engano, ainda estão disponíveis e são ativamente anunciadas na página principal.

«É interessante que a OpenAI tenha uma visão apocalíptica da IA ​​e de como ela nos salva dela”, disse Milton Mueller, diretor do Projeto de Governança da Internet da Georgia Tech. “Mas acho que o que é especialmente engraçado é que eles não podem impor algo tão simples como proibir a pornografia baseada em IA e, ao mesmo tempo, afirmar que suas políticas salvarão o mundo”.

Para agravar o problema, muitas das TGP médicas e jurídicas não contêm as isenções de responsabilidade necessárias e algumas são enganosas ao anunciarem-se como advogados ou médicos. Por exemplo, o GPT, chamado AI Immigration Lawyer, se autodenomina um “advogado de imigração de IA altamente qualificado com conhecimento jurídico atualizado”. No entanto, pesquisas mostram que os modelos GPT-4 e GPT-3.5 muitas vezes produzem informações incorretas de qualquer maneira, principalmente em questões jurídicas, tornando seu uso extremamente arriscado.

Lembramos que a OpenAI GPT Store é uma plataforma de negociação de chatbots customizados “para qualquer ocasião”, que são criados por desenvolvedores terceirizados e lucram com sua venda. Mais de 3 milhões de chatbots individuais já foram criados.

avalanche

Postagens recentes

As mudanças de pessoal continuam na X – outro alto executivo deixou a empresa

Esta semana, o chefe de relações governamentais da X, Nick Pickles, anunciou sua saída da…

22 minutos atrás

O samurai cibernético não tem objetivo, apenas o caminho: Ghostrunner 2 agora tem um modo motor infinito

Os desenvolvedores do estúdio polonês One More Level, juntamente com a editora 505 Games, anunciaram…

1 hora atrás

Samsung unirá forças com TSMC para lançar memória HBM4

A Samsung Electronics tem capacidade própria para produzir elementos lógicos de memória HBM, mas para…

1 hora atrás

“Bethesda, aprenda”: ​​Larian permitiu que jogadores de Baldur’s Gate 3 no Steam permanecessem no sexto patch

O sétimo patch principal, lançado ontem para a versão PC do Baldur's Gate 3, trouxe…

1 hora atrás