Alguns usuários da Internet começaram a conversar com o chatbot baseado em inteligência artificial (IA) ChatGPT, em vez de ir a um terapeuta. Especialistas alertam que as consequências dessa prática podem ser imprevisíveis: há questionamentos sobre a confidencialidade do serviço e os princípios éticos da IA.

Fonte da imagem: Alexander Pemberton / unsplash.com

Milo Van Slyck, que trabalha como paralegal em Charleston, Carolina do Sul, contou à Bloomberg sobre sua experiência com IA – ele tem uma abordagem não padronizada para sua própria identidade que seus pais, que aderem ao característico estado do sul de valores tradicionais. Depois de perder uma reunião com seu terapeuta no início de abril, Van Slick recorreu ao ChatGPT e descobriu que conversar com a IA lhe dava uma sensação de conforto psicológico.

«Quando você voltar a ver seus pais, será importante priorizar suas necessidades e bem-estar. Considere o que você precisa para se sentir confortável e seguro na presença deles. Não há problema em estabelecer limites sobre quanto tempo você passa com eles, quais tópicos não devem ser tocados e como eles se relacionam com você e sua identidade ”, ChatGPT deu esse conselho a um“ paciente que tem um conflito com os pais.

Nos dias que se seguiram, Van Slick desenvolveu o hábito de recorrer à IA quando precisava conversar, e as respostas do ChatGPT começaram a lhe dar uma pausa mental. Anteriormente, ele se sentia um fardo para outras pessoas e até para um psicoterapeuta, mas ao se comunicar com um chatbot, ele não se sentia mais intrusivo.

A nova geração de chatbots está apenas começando e é muito cedo para dizer se sua popularidade continuará assim que o efeito da novidade passar. Agora eles são usados ​​​​para pesquisar informações na Internet, escrever deveres de casa, programar códigos e até fazer reservas em restaurantes. Substituir um psicoterapeuta não é uma ideia nova. Um dos primeiros chatbots de Eliza foi criado nos anos sessenta do século passado pelo professor Joseph Weizenbaum, apenas para substituir um psicoterapeuta. Projetos semelhantes existem até agora: os chatbots não se cansam e a comunicação com eles é mais barata do que os serviços de verdadeiros especialistas.

Fonte da imagem: BoliviaInteligente / unsplash.com

Mas há também uma ameaça potencial representada por tais decisões. Estruturas poderosas de uso geral, incluindo OpenAI ChatGPT, Google Bard e Microsoft Bing Chat, são baseadas em grandes modelos de linguagem e são projetadas apenas para gerar informações persuasivas. Eles não se destinam à psicoterapia e seus algoritmos não foram programados de acordo com os princípios éticos e legais aos quais os psicoterapeutas aderem. Eles não conseguem acompanhar o que os “pacientes” lhes dizem de sessão em sessão, embora ninguém tolere isso de especialistas vivos.

Os especialistas admitem que o ChatGPT é realmente um bom conversador, embora uma máquina ainda não possa substituir um especialista em saúde mental. O próprio chatbot concordou com isso quando soube de uma postagem no Twitter, cujo autor chamou o ChatGPT de mais eficaz do que um psicoterapeuta ao vivo. “É importante lembrar que os recursos online podem ser úteis, mas não substituem a busca de ajuda profissional para traumas ou problemas de saúde mental. Se você tiver perguntas ou preocupações imediatas que gostaria de obter informações ou respostas minhas, farei o possível para ajudá-lo ”, disse a IA.

Margaret Mitchell, diretora de ética da Hugging Face, uma empresa de desenvolvimento e suporte de modelos de IA, diz que chatbots como esses podem ser usados ​​para ajudar pessoas que ligam para linhas de emergência, mas confiar demais neles pode exacerbar o sofrimento de pessoas com problemas e essas pessoas podem nem entender o que está acontecendo. Ela também apontou possíveis problemas de privacidade: a OpenAI reservou o direito de visualizar as conversas do ChatGPT com os usuários para posterior treinamento do modelo. E as pessoas que compartilham problemas pessoais com a IA podem não gostar.

Em contrapartida, Emad Mostaque, fundador e CEO da Stability AI, empresa responsável pelo gerador de imagens Stable Diffusion, considera o chatbot GPT-4 “o melhor psicoterapeuta”. Ele, diz ele, desenvolveu um sistema de comandos que coloca o sistema em modo de psicoterapia, e agora conversa com o ChatGPT sobre uma variedade de tópicos, incluindo maneiras de lidar com o estresse associado à administração de uma empresa jovem – especialmente se for dirigida por um falando abertamente sobre sua neurodivergência, transtorno de déficit de atenção e hiperatividade. Ele não acredita que um chatbot possa substituir um psicoterapeuta, mas admite que podem ser úteis quando você precisa conversar e não há outro interlocutor ao seu alcance.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *