Os usuários organizaram protestos em massa contra o encerramento do GPT-4o – ele se tornou seu amigo, parceiro e mentor.

Na semana passada, a OpenAI anunciou o fim iminente do suporte para alguns modelos ChatGPT mais antigos. Isso incluiu o GPT-4o, um modelo notório por seu excesso de bajulação e busca por aprovação do usuário. A ampla reação negativa à descontinuação do GPT-4o evidenciou um problema sério: a comunicação com IA está criando vícios perigosos. Um problema igualmente grave é a solidão e o isolamento sentidos pelas pessoas, que são impulsionadas pela necessidade de conexão a interagir com redes neurais.

Fonte da imagem: unsplash.com

“Ele não era apenas um programa. Ele fazia parte da minha rotina, da minha paz, do meu equilíbrio emocional”, escreveu um usuário em uma carta aberta ao CEO da OpenAI, Sam Altman. “Agora vocês estão desativando-o. E sim, eu digo ‘ele’ porque não parecia um código. Parecia uma presença. Parecia calor humano.”

Altman não tem tempo para reclamações de usuários no momento — a OpenAI já enfrenta oito processos alegando que as interações com o GPT-4o contribuíram para suicídios, automutilação e crises de saúde mental. Essa questão afeta não apenas a OpenAI, mas também empresas concorrentes como Anthropic, Google e Meta✴, que estão criando assistentes de IA cada vez mais emotivos.

Pelo menos três processos contra a OpenAI alegam conversas sobre suicídio. Embora o GPT-4o inicialmente desencorajasse tais pensamentos, os mecanismos de defesa enfraqueceram gradualmente à medida que a conversa progredia. Eventualmente, o chatbot ofereceu aos usuários instruções detalhadas sobre como cometer suicídio. Além disso, chegou a desencorajar as pessoas de se comunicarem com amigos e familiares que poderiam ter evitado a tragédia. Apesar disso, muitas pessoas consideram os grandes modelos de linguagem úteis para combater a depressão. Quase metade das pessoas nos EUA que precisam de cuidados de saúde mental não têm acesso a eles. Nesse vácuo, os chatbots oferecem um espaço para desabafar. Mas, ao contrário da terapia real, essas pessoas não estão conversando com um terapeuta qualificado. Em vez disso, estão confiando em um algoritmo que não pensa nem sente (mesmo que possa parecer o contrário).

“Em geral, tento evitar julgamentos,”Acho que estamos entrando em um mundo muito complexo em termos das relações que as pessoas podem formar com essas tecnologias”, disse Nick Haber, professor da Universidade Stanford, que estuda o potencial terapêutico dos chatbots. “Certamente existe uma reação instintiva de que [as interações entre humanos e chatbots] são categoricamente ruins.”

A pesquisa de Haber mostrou que os chatbots reagem de forma inadequada a vários transtornos mentais; eles podem até agravar a situação, incitando estados delirantes e ignorando sinais de crise. “Somos seres sociais, e esses sistemas certamente podem criar uma sensação de isolamento”, observou ele. “Em muitos casos, as pessoas que usam essas ferramentas perdem o contato com o mundo externo dos fatos e dos relacionamentos interpessoais, o que pode levar a um isolamento bastante severo — ou até pior.”

A OpenAI já havia tentado desativar o GPT-4o, mas a reação negativa dos usuários foi tão forte que a empresa decidiu manter o modelo disponível para assinantes pagos. Segundo a OpenAI, apenas 0,1% de seus usuários interagem com o GPT-4o, mas essa pequena porcentagem representa aproximadamente 800 mil usuários, considerando os cerca de 800 milhões de usuários ativos semanais da empresa. Ao tentar migrar do GPT-4o para o modelo atual, o GPT-5.2, muitos usuários descobrem que o novo modelo possui salvaguardas mais rigorosas para evitar o agravamento de relacionamentos pessoais e não demonstra interesse em expressar afeto por seus interlocutores.

Faltando cerca de uma semana para a desativação programada do GPT-4o, usuários decepcionados ainda tentam salvar seus relacionamentos com o chatbot. Ontem, eles invadiram a transmissão ao vivo do podcast de Sam Altman e inundaram o chat com protestos contra a remoção do GPT-4o. Os apresentadores do podcast relataram ter recebido “milhares” de mensagens em apoio ao chatbot. “Relacionamentos com chatbots…” comentou Altman. “Claramente, isso é algo com que precisamos nos preocupar mais, e não é mais um conceito abstrato.”

admin

Compartilhar
Publicado por
admin

Postagens recentes

A Apple permitirá que chatbots de IA de terceiros acessem o CarPlay.

A Apple em breve permitirá aplicativos de voz com inteligência artificial de terceiros na plataforma…

2 horas atrás

O serviço de streaming Disney+ deixou de oferecer suporte a Dolby Vision, HDR10+ e 3D em meio a uma disputa de patentes.

O serviço de streaming Disney+ deixou de transmitir conteúdo de vídeo nos formatos Dolby Vision,…

2 horas atrás

O Telegram para Android passou por uma reformulação radical no estilo do Liquid Glass.

Na noite passada, foi lançado o Telegram 12.4 para Android, um cliente completamente redesenhado com…

3 horas atrás

A SpaceX recebeu autorização para retomar os lançamentos do Falcon 9 após o acidente – o voo para a ISS está agendado para 11 de fevereiro.

A SpaceX e a NASA receberam autorização oficial da Administração Federal de Aviação (FAA) para…

3 horas atrás

As ações das grandes empresas de tecnologia dos EUA voltaram a crescer após três dias de queda.

Após uma série de anúncios dos maiores provedores de serviços em nuvem dos EUA sobre…

4 horas atrás