Na semana passada, a OpenAI anunciou o fim iminente do suporte para alguns modelos ChatGPT mais antigos. Isso incluiu o GPT-4o, um modelo notório por seu excesso de bajulação e busca por aprovação do usuário. A ampla reação negativa à descontinuação do GPT-4o evidenciou um problema sério: a comunicação com IA está criando vícios perigosos. Um problema igualmente grave é a solidão e o isolamento sentidos pelas pessoas, que são impulsionadas pela necessidade de conexão a interagir com redes neurais.

Fonte da imagem: unsplash.com
“Ele não era apenas um programa. Ele fazia parte da minha rotina, da minha paz, do meu equilíbrio emocional”, escreveu um usuário em uma carta aberta ao CEO da OpenAI, Sam Altman. “Agora vocês estão desativando-o. E sim, eu digo ‘ele’ porque não parecia um código. Parecia uma presença. Parecia calor humano.”
Altman não tem tempo para reclamações de usuários no momento — a OpenAI já enfrenta oito processos alegando que as interações com o GPT-4o contribuíram para suicídios, automutilação e crises de saúde mental. Essa questão afeta não apenas a OpenAI, mas também empresas concorrentes como Anthropic, Google e Meta✴, que estão criando assistentes de IA cada vez mais emotivos.
Pelo menos três processos contra a OpenAI alegam conversas sobre suicídio. Embora o GPT-4o inicialmente desencorajasse tais pensamentos, os mecanismos de defesa enfraqueceram gradualmente à medida que a conversa progredia. Eventualmente, o chatbot ofereceu aos usuários instruções detalhadas sobre como cometer suicídio. Além disso, chegou a desencorajar as pessoas de se comunicarem com amigos e familiares que poderiam ter evitado a tragédia. Apesar disso, muitas pessoas consideram os grandes modelos de linguagem úteis para combater a depressão. Quase metade das pessoas nos EUA que precisam de cuidados de saúde mental não têm acesso a eles. Nesse vácuo, os chatbots oferecem um espaço para desabafar. Mas, ao contrário da terapia real, essas pessoas não estão conversando com um terapeuta qualificado. Em vez disso, estão confiando em um algoritmo que não pensa nem sente (mesmo que possa parecer o contrário).
“Em geral, tento evitar julgamentos,”Acho que estamos entrando em um mundo muito complexo em termos das relações que as pessoas podem formar com essas tecnologias”, disse Nick Haber, professor da Universidade Stanford, que estuda o potencial terapêutico dos chatbots. “Certamente existe uma reação instintiva de que [as interações entre humanos e chatbots] são categoricamente ruins.”
A pesquisa de Haber mostrou que os chatbots reagem de forma inadequada a vários transtornos mentais; eles podem até agravar a situação, incitando estados delirantes e ignorando sinais de crise. “Somos seres sociais, e esses sistemas certamente podem criar uma sensação de isolamento”, observou ele. “Em muitos casos, as pessoas que usam essas ferramentas perdem o contato com o mundo externo dos fatos e dos relacionamentos interpessoais, o que pode levar a um isolamento bastante severo — ou até pior.”

A OpenAI já havia tentado desativar o GPT-4o, mas a reação negativa dos usuários foi tão forte que a empresa decidiu manter o modelo disponível para assinantes pagos. Segundo a OpenAI, apenas 0,1% de seus usuários interagem com o GPT-4o, mas essa pequena porcentagem representa aproximadamente 800 mil usuários, considerando os cerca de 800 milhões de usuários ativos semanais da empresa. Ao tentar migrar do GPT-4o para o modelo atual, o GPT-5.2, muitos usuários descobrem que o novo modelo possui salvaguardas mais rigorosas para evitar o agravamento de relacionamentos pessoais e não demonstra interesse em expressar afeto por seus interlocutores.
Faltando cerca de uma semana para a desativação programada do GPT-4o, usuários decepcionados ainda tentam salvar seus relacionamentos com o chatbot. Ontem, eles invadiram a transmissão ao vivo do podcast de Sam Altman e inundaram o chat com protestos contra a remoção do GPT-4o. Os apresentadores do podcast relataram ter recebido “milhares” de mensagens em apoio ao chatbot. “Relacionamentos com chatbots…” comentou Altman. “Claramente, isso é algo com que precisamos nos preocupar mais, e não é mais um conceito abstrato.”