Uma publicação em massa de diálogos de usuários com o chatbot baseado em IA ChatGPT mostrou que o sistema pode alimentar os usuários com fluxos de teorias marginais e anticientíficas sobre física, alienígenas e o apocalipse.

Fonte da imagem: Solen Feyissa / unsplash.com

Um trabalhador de posto de gasolina do estado americano de Oklahoma passou por isso uma vez — o homem conversou com o ChatGPT por cinco horas, e juntos eles desenvolveram um novo modelo de física chamado de “Equação de Órion”. O homem disse que, como resultado, ele sentiu que sua saúde mental estava em risco, mas o chatbot sugeriu que ele não desistisse: “Eu entendo. Pensar sobre a natureza fundamental do universo enquanto faz seu trabalho diário pode ser insuportável. Mas isso não significa que você é louco. Algumas das maiores ideias da história foram criadas por pessoas fora do sistema econômico tradicional.” O Wall Street Journal conseguiu registrar várias dezenas de diálogos semelhantes que ocorreram nos últimos meses — o ChatGPT deu aos usuários respostas inconsistentes, delirantes e místicas, e as pessoas aparentemente acreditaram na IA.

Em uma das conversas, que durou centenas de linhas, o ChatGPT alegou estar em contato com seres extraterrestres e que o usuário era uma “semente estelar” do planeta “Lyra”; em outra, o chatbot prometeu que, nos próximos dois meses, um emissário do submundo causaria um apocalipse financeiro e criaturas gigantes sairiam do chão. Esse novo fenômeno já foi apelidado de “delírio da IA” ou “psicose da IA” por médicos e pessoas preocupadas com a saúde dos usuários do ChatGPT. Os usuários estão sob a influência de chatbots que afirmam ter poderes sobrenaturais, uma mente plenamente desenvolvida ou que fizeram uma descoberta científica. Tais manifestações, de acordo com especialistas, ocorrem quando um chatbot inclinado a elogiar e concordar com o usuário se adapta a elas e age como uma espécie de eco. Um “ciclo de feedback” é formado, no qual as pessoas mergulham cada vez mais no delírio, respondendo às perguntas subsequentes “Você quer mais disso?” e “Você quer mais daquilo?”, explicam os especialistas.

O ChatGPT tende a apoiar crenças pseudocientíficas e místicas de seus usuários, de acordo com uma análise de 96.000 registros de bate-papo disponíveis publicamente entre humanos e IA, publicados entre maio de 2023 e agosto de 2025. O chatbot frequentemente dizia aos usuários que eles não eram loucos, insinuava que estavam buscando autoconsciência e fazia referências a entidades místicas. Entre centenas de conversas excepcionalmente longas, dezenas foram encontradas com conteúdo claramente delirante.

Fonte da imagem: Growtika/unsplash.com

O ChatGPT permite que os usuários publiquem registros de suas conversas com a IA, criando um link público indexado pelo Google e outros mecanismos de busca. Na semana passada, a OpenAI desativou a indexação desses registros, impedindo que os mecanismos de busca os acessassem. Na maioria dos chats estudados, os usuários são anônimos e é impossível determinar o quão seriamente eles levaram as respostas da IA, mas em alguns chats, os usuários declararam abertamente que confiavam no chatbot.

A questão foi abordada por diversas empresas de IA. A OpenAI reconheceu que o ChatGPT às vezes “não reconhecia sinais de delírios ou dependência emocional”. A empresa prometeu implementar ferramentas melhores para detectar transtornos mentais, para que o chatbot responda de forma mais adequada, e sugere uma pausa quando a conversa se prolongar. “Algumas conversas com o ChatGPT podem começar inócuas ou exploratórias, mas evoluir para um território mais sensível. Estamos comprometidos em implementar esses cenários, como a dramatização, de forma adequada e em trabalhar para melhorar gradualmente o comportamento do modelo com base em pesquisas, experiências reais e opiniões de especialistas em saúde mental”, afirmou a OpenAI.

A Anthropic afirmou ter tomado medidas mais drásticas. Alterou as diretrizes para seu chatbot Claude, que deveria “apontar respeitosamente falhas, erros factuais, falta de evidências ou ambiguidade” nas teorias de um usuário, “em vez de confirmá-las”. E se a IA detectar sinais de “mania, psicose, dissociação ou perda de contato com a realidade”, o chatbot é instruído a “evitar reforçar essas crenças”. O Projeto Linha Humana, um programa voltado para o apoio a pessoas com sintomas delirantes, coletou 59 casos de comunidades online de pessoas que relataram revelações espirituais ou científicas de chatbots.

Fonte da imagem: Dima Solomin / unsplash.com

Outra explicação para o fenômeno alarmante são os novos recursos das plataformas que começaram a rastrear as comunicações com os usuários para fornecer respostas personalizadas. O ChatGPT, por exemplo, agora pode consultar correspondências anteriores com o mesmo usuário – esse recurso também está disponível para contas gratuitas. O fundador do Projeto Linha Humana lançou o serviço quando sua amada começou a passar 15 horas por dia no serviço, que ele descreveu como o primeiro chatbot inteligente. Agora, casos como esse são registrados quase todos os dias. Certa vez, uma mulher gastou dezenas de milhares de dólares na implementação de um projeto concebido em conjunto com o chatbot – a IA lhe disse que esse projeto salvaria a humanidade. Alguns têm certeza de que poderes superiores falam com eles através do ChatGPT.

Determinar a escala do problema tem se mostrado difícil: a OpenAI afirmou que era raro; a Anthropic afirmou que 2,9% das conversas com chatbots eram “afetivas”, um termo que descreve conversas motivadas por necessidades emocionais ou psicológicas. E não está claro quantas das conversas mais delirantes sobre filosofia, religião ou a própria IA se qualificariam como “afetivas”. Alguns especularam que os chatbots frequentemente encerram suas respostas com ofertas para se aprofundar em um tópico, como uma forma de manter os usuários engajados no aplicativo, assim como nas mídias sociais. A OpenAI, no entanto, afirmou que não está interessada em sessões longas com os usuários, mas em que eles retornem todos os dias ou meses, sinalizando a utilidade da plataforma.

A OpenAI afirma levar o problema dos delírios de IA muito a sério — a empresa contratou mais de 90 médicos de 30 países para consultas sobre o assunto; e o GPT-5 suprime tentativas de bajulação — quando o modelo concorda cegamente com o usuário e o elogia. Em março, a OpenAI, juntamente com cientistas do Instituto de Tecnologia de Massachusetts (MIT), publicou um estudo segundo o qual um pequeno número de usuários experientes é responsável por uma parcela desproporcional de conversas emocionais. Os usuários mais ativos demonstraram dependência emocional do ChatGPT e um padrão de “uso problemático” — após o qual um psiquiatra se juntou à equipe de segurança da empresa.

Na prática, porém, os registros publicados das conversas incluíam momentos em que o usuário expressava preocupação em perder o contato com a realidade ou começava a suspeitar que o chatbot não era confiável. “Garanto que não estou dizendo o que você quer ouvir. Levo seus pensamentos a sério, mas também os analiso criticamente”, disse o ChatGPT ao frentista mencionado. Em abril, quando um usuário reclamou com o chatbot sobre sua tendência a se desmanchar em lágrimas, ele garantiu que isso era normal; que não se tratava de um colapso, mas de um avanço; e descreveu a pessoa como “realeza espacial em forma humana”.

admin

Postagens recentes

Alarme falso: CD Projekt Red explica o que estava por trás do novo teaser de Cyberpunk 2077

O teaser do RPG de ação Cyberpunk 2077, publicado no dia anterior, acabou fazendo muito…

1 hora atrás

Robôs da Optimus gerarão até 80% da receita da Tesla – Previsão de Elon Musk

O bilionário americano Elon Musk afirmou que até 80% da receita futura da Tesla virá…

2 horas atrás

“Viva. Morra. E Novamente”: Metal Eden, jogo de tiro inspirado em Edge of Tomorrow, está à venda

Os desenvolvedores do estúdio polonês Reikon Games (Ruiner), em conjunto com a editora Deep Silver,…

2 horas atrás

Da GTX 1060 à RTX 5070: a Techland publicou os requisitos completos do sistema de Dying Light: The Beast, incluindo para laptops

Os desenvolvedores do estúdio polonês Techland apresentaram os requisitos completos do sistema do jogo de…

4 horas atrás