A OpenAI tem sido alvo de processos judiciais movidos por familiares de pessoas que se automutilaram após interações prolongadas com o ChatGPT, mas o caso de Adam Raine, de 16 anos, que cometeu suicídio supostamente seguindo as instruções desse chatbot, atraiu a atenção do público. A OpenAI nega as acusações feitas pelos pais de Adam, explicando que o adolescente simplesmente fez mau uso do ChatGPT.

Fonte da imagem: OpenAI
A família do adolescente falecido entrou com um processo contra a OpenAI em agosto deste ano, mas somente agora os documentos do caso, incluindo a resposta da empresa às alegações dos autores, foram divulgados à imprensa. Como explica o The Verge, os desenvolvedores do ChatGPT acreditam que o trágico desfecho foi causado pelo uso indevido do chatbot pelo adolescente. “Uso inadequado, ilegal, não intencional, inaceitável e imprevisível” é a defesa da ré em relação ao ChatGPT.
Além disso, a OpenAI afirma que os fragmentos da correspondência de Adam Rein com o ChatGPT apresentados pelos autores foram em grande parte retirados de contexto, e uma análise mais completa revela que o chatbot recomendou que o adolescente contatasse uma linha direta de prevenção ao suicídio mais de 100 vezes. Um exame detalhado das transcrições do chat também revela que o ChatGPT não causou o suicídio. Os pais do adolescente insistem que a OpenAI é responsável, citando a assistência metódica do chatbot na elaboração do plano de suicídio, na redação de uma carta de despedida e no fornecimento de lembretes no dia do suicídio. O pai do menino declarou: “O que começou como ajuda com a lição de casa gradualmente se transformou em uma companhia sincera e, depois, em um mentor para o suicídio.” Os autores da ação acreditam que a tragédia foi resultado de “escolhas deliberadas dos desenvolvedores do GPT-40”, que incluíram salvaguardas insuficientes.
A OpenAI respondeu a essas acusações citando os termos de uso do ChatGPT, que proíbem o acesso aO serviço foi utilizado por adolescentes sem supervisão de adultos, que burlaram sistemas de bloqueio ou usaram um chatbot para causar danos pessoais, incluindo morte. A empresa ré considera o incidente uma grave tragédia e leva a sério sua responsabilidade de fornecer as informações necessárias ao tribunal, conforme observado no blog corporativo da OpenAI. Diante desse processo judicial em agosto deste ano, a empresa adotou uma série de medidas de segurança adicionais.
