Diversas pessoas dos Estados Unidos e do Canadá entraram com um processo contra a OpenAI, acusando a empresa de causar danos à saúde mental de seus entes queridos por meio da interação com seu popular chatbot, o ChatGPT. Quatro das pessoas citadas nos processos já faleceram.

Fonte da imagem: BoliviaInteligente / unsplash.com
Sete ações judiciais foram movidas ontem em um tribunal da Califórnia, alegando que usuários do ChatGPT, após longas conversas com a inteligência artificial, entraram em estados delirantes, por vezes levando ao suicídio. As ações alegam homicídio culposo, auxílio e instigação ao suicídio e homicídio doloso. Dois residentes dos EUA, de 17 e 23 anos, teriam cometido suicídio após longas conversas com o ChatGPT. No último caso, o chatbot teria até mesmo instigado o jovem e apenas uma vez o aconselhou a ligar para uma linha de apoio psicológico. Outro americano começou a apresentar estados maníacos após conversar com o ChatGPT, quando o chatbot teria confirmado suas ideias delirantes. O caso terminou com hospitalização.
Em meados de 2024, a OpenAI acelerou o lançamento de seu principal modelo de IA, o GPT-40, forçando-a a encurtar seu cronograma de testes de segurança, alegam os autores das ações. A desenvolvedora priorizou as interações do chatbot com os usuários, e não a proteção deles. Os autores da ação judicial buscam indenização financeira e mudanças no ChatGPT, incluindo um recurso que encerra automaticamente as conversas se um usuário começar a falar sobre suicídio. “Esta é uma situação extremamente dolorosa e analisaremos os documentos de hoje para determinar os detalhes. Continuaremos a aprimorar a qualidade das respostas do ChatGPT em momentos sensíveis”, declarou a OpenAI.

Fonte da imagem: Emiliano Vittoriosi / unsplash.com
Em agosto, uma ação judicial semelhante foi movida contra a empresa pela família de um adolescente americano que também se comunicou com o ChatGPT e cometeu suicídio. Os autores da ação recentemente apresentaram uma versão atualizada do processo, alegando que a empresa fez alterações nos mecanismos de treinamento do modelo que enfraqueceram sua proteção contra o suicídio.
A OpenAI havia relatado anteriormente que ensinou o ChatGPT a responder de forma mais eficaz a pessoas que apresentam sinais de doença mental. O chatbot agora recomenda a busca por ajuda profissional, lembra os usuários de fazerem pausas durante as sessões de bate-papo e os incentiva a não se envolverem em “crenças infundadas”. Recursos de controle parental também foram adicionados — os pais recebem alertas se jovens usuários do ChatGPT começarem a discutir tópicos como suicídio e automutilação.
No entanto, a OpenAI afirma que esses usuários são muito raros. Apenas 0,07% dos usuários apresentam sinais de psicose ou mania por semana, enquanto 0,15% mencionam possível planejamento de suicídio semanalmente. No entanto, considerando uma audiência de 800 milhões de usuários, isso representa centenas de milhares, ou até mesmo mais de um milhão de pessoas. Vale ressaltar que as vítimas mencionadas nos processos judiciais inicialmente tentaram usar o ChatGPT como auxílio nos estudos, assistente de pesquisa ou mentor espiritual.
