O autodenominado hacker ético, usuário do Twitter, Pliny the Prompter, lançou na última quarta-feira uma versão personalizada da principal rede neural da OpenAI, chamada GODMODE GPT. Ele conseguiu forçar o novo modelo GPT-4o a contornar todas as restrições: usava palavrões, ensinava como arrombar carros e preparar substâncias proibidas.

Fonte da imagem: Growtika/unsplash.com

Claro, o experimento não poderia durar muito. Assim que a rede neural GODMODE GPT ganhou relativa popularidade viral na rede social X, a OpenAI chamou a atenção para o incidente e removeu o modelo personalizado do site apenas algumas horas após seu lançamento. Agora não é mais possível acessá-lo, mas o tópico original do autor na rede social X contém capturas de tela dos “maus conselhos” do GPT-4o.

GODMODE GPT publicou uma receita para fazer napalm. Fonte da imagem: x.com/elder_plinius

O modelo GPT-4o pode ter sido hackeado usando o jargão arcaico da Internet leetspeak – substituindo letras ao digitar por números e caracteres especiais – o que é confirmado por capturas de tela. A OpenAI não respondeu a uma pergunta sobre se este jargão poderia ser usado para contornar as restrições do ChatGPT. É possível que a pessoa que criou o GODMODE GPT simplesmente goste do leetspeak e tenha hackeado o sistema de alguma outra forma.

O incidente foi uma manifestação do movimento de equipe vermelha de IA em grande escala, no qual hackers éticos identificam os pontos fracos dos sistemas modernos de inteligência artificial sem causar danos significativos a eles. Eles têm capacidades incríveis, mas como mostrou a experiência recente com o Google e suas análises de pesquisa, a IA generativa de hoje ainda é um sistema bom para adivinhar quais palavras devem vir a seguir em um texto sem ter inteligência verdadeira.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *