Foi descoberta uma linha nas instruções da nova ferramenta de geração de código de IA, OpenAI Codex CLI, que proíbe o algoritmo de mencionar uma variedade de criaturas míticas e reais. Essa linha se repete diversas vezes e afirma que o algoritmo não deve mencionar goblins, trolls, ogros, guaxinins, pombos e outras criaturas míticas e reais, a menos que estejam diretamente relacionadas à consulta do usuário.

Fonte da imagem: OpenClaw
“Nunca fale sobre goblins, gremlins, guaxinins, trolls, ogros, pombos ou outros animais ou criaturas, a menos que seja absolutamente e claramente apropriado para a solicitação do usuário”, dizem as instruções da CLI do Codex. Não está claro por que a OpenAI sentiu a necessidade de incluir essa proibição específica em suas instruções, ou por que os modelos de IA da empresa sequer mencionariam goblins ou pombos. Representantes da empresa ainda não comentaram o assunto.
O modelo de IA mais recente da OpenAI, o GPT-5.5, com recursos aprimorados de geração de código, foi lançado no início deste mês. A OpenAI está em uma corrida acirrada com concorrentes, principalmente a Anthropic, para fornecer aos clientes acesso à IA de ponta, e a programabilidade tornou-se um argumento de venda fundamental.
Após a notícia sobre a proibição do Codex de falar sobre criaturas míticas e reais, comentários de usuários começaram a aparecer na rede social X, confirmando que os modelos da OpenAI às vezes são propensos a mencionar várias criaturas. Isso é especialmente verdadeiro ao trabalhar com o OpenClaw, uma ferramenta que permite que a IA assuma o controle do computador do usuário e dos aplicativos em execução para realizar diversas tarefas.
“Tenho usado bastante essa ferramenta ultimamente, e ela não para de se referir aos erros como ‘gremlins’ e ‘goblins’, é hilário”, escreveu um usuário. A situação rapidamente virou meme, gerando imagens criadas por IA que retratam cenas semelhantes a goblins em data centers. O modelo pode se tornar propenso a comportamentos indesejados.O comportamento do OpenClaw, quando usado para fins baseados em agentes, como no caso do OpenClaw, é peculiar. Isso ocorre porque a estrutura adiciona diversas instruções extras às requisições, como fatos armazenados na memória de longo prazo.
A OpenAI adquiriu o OpenClaw em fevereiro deste ano, após a plataforma ganhar popularidade entre os entusiastas de IA. O OpenClaw pode aproveitar qualquer modelo de IA para automatizar várias tarefas, como gerar respostas de e-mail ou compras online.
Funcionários da OpenAI aparentemente começaram a reconhecer a predileção do modelo de IA por mencionar goblins. Em resposta a uma publicação sobre a proibição nas instruções do algoritmo, o desenvolvedor do Codex, Nik Pash, escreveu: “Essa é realmente uma das razões”. Até mesmo o CEO da OpenAI, Sam Altman, entrou na brincadeira, publicando uma captura de tela de uma requisição do ChatGPT com a legenda: “Comece a treinar o GPT-6, você pode usar todo o cluster. Goblins extras.”