Após revelações de que chatbots de IA, incluindo o ChatGPT, podem, sob certas condições, causar danos emocionais a usuários com instabilidade mental, a OpenAI tem se preocupado cada vez mais em melhorar a segurança de seus serviços. A empresa lançou um “Conselho de Bem-Estar e IA”, composto por oito especialistas.

Fonte da imagem: Mariia Shalabaieva / unsplash.com

Um deles foi David Bickham, Diretor de Pesquisa do Hospital Infantil de Boston e especialista no impacto das mídias sociais na saúde mental. Em um de seus artigos, ele observou, entre outras coisas, que as crianças modernas já estão aprendendo com personagens virtuais e construindo “relacionamentos parassociais” com eles — ou seja, conexões unidirecionais. E se a IA moderna está destinada a substituir os professores, mesmo que em certa medida, então devemos nos perguntar como as crianças interagem com os chatbots.

A nova estrutura também inclui Matilde Cerioli, pesquisadora sênior da organização sem fins lucrativos Everyone.AI. Seus interesses de pesquisa incluem o impacto da IA ​​no desenvolvimento mental e emocional das crianças. Cerioli enfatiza que é errado pensar nas crianças como pequenos adultos — seus cérebros são muito diferentes, assim como as influências que a IA exerce sobre elas. Em um de seus artigos recentes, ela destacou que crianças criadas com IA correm o risco de não conseguir lidar com contradições: em um estágio inicial, quando suas conexões neurais são altamente plásticas, elas se envolvem em interações sociais com entidades que se adaptam infinitamente ao usuário e a outros atores externos.

Outro membro do conselho é o professor Munmun De Choudhury, do Instituto de Tecnologia da Geórgia. Sua especialidade é o desenvolvimento e o estudo de algoritmos matemáticos que visam expandir “o papel das tecnologias online na formação e melhoria da saúde mental”. Em 2023, ela conduziu um estudo no qual tentou comparar os benefícios e malefícios de modelos de linguagem em larga escala em relação aSaúde mental humana no ambiente digital. A Professora Chowdhury observou que apenas metade das vezes os chatbots que prestam serviços médicos foram capazes de detectar tendências autodestrutivas nas pessoas, e que essa tarefa foi realizada de forma “imprevisível” e “dispersa”. No entanto, ela recomenda cautela contra o exagero e ressalta que, para algumas pessoas, ter conexões unilaterais e parassociais com uma máquina ainda é melhor do que não ter conexão alguma.

Tracy Dennis-Tiwary, professora de psicologia, cofundadora da Arcade Therapeutics e membro do conselho, declarou anteriormente que considera o termo “psicose da IA”, que descreve os perigos de interações prolongadas com a IA, inútil na maioria dos ambientes não clínicos. Ela acredita que a IA deve apoiar as conexões sociais como a base do bem-estar humano: a IA pode ajudar as pessoas, mas concedê-la incondicionalmente àqueles com saúde mental frágil e instável também é imprudente.

Sara Johansen, fundadora da Clínica de Saúde Mental Digital da Universidade Stanford, está otimista em relação aos robôs de acompanhamento. Ela acredita que o desenvolvimento de assistentes de IA deve levar em consideração as lições aprendidas com o estudo do impacto das mídias sociais na saúde humana. “A IA tem um enorme potencial para melhorar o suporte à saúde mental e levanta novas questões sobre privacidade, confiança e qualidade”, afirma.

David Mohr, diretor do Centro de Tecnologias de Intervenção Comportamental da Universidade Northwestern, estudou anteriormente como as novas tecnologias poderiam ajudar a prevenir e tratar a depressão. Em 2017, ele discutiu o potencial dos aplicativos para pessoas que não conseguem ajuda de um terapeuta; No entanto, no ano passado, ele reiterou que a IA não pode substituir completamente um terapeuta, pois pode ficar fora de controle.

Andrew K. Przybylski, professor de comportamento humano e tecnologia, foi coautor de um estudo de 2023 que refutou o impacto negativo do acesso à internet em si na saúde mental.Ele pode aplicar essas descobertas ao estudo do impacto da IA ​​em humanos.

O oitavo membro do conselho é Robert K. Ross, especialista em saúde pública que a OpenAI contratou anteriormente como consultor. A nova estrutura foi projetada para ajudar a empresa a superar a crise e comprovar a segurança do ChatGPT e do Sora, que até agora atraíram muita atenção indesejada. A OpenAI declarou que continuará a consultar médicos, formuladores de políticas e outros especialistas em todo o mundo e levará suas opiniões em consideração ao desenvolver sistemas avançados de IA voltados para o bem-estar humano.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *