A comunicação com o chatbot ChatGPT AI no novo modo de voz, quando sua voz não é diferente da humana, pode fazer com que o usuário se torne dependente da interação com a IA, escreve o recurso da CNN com referência a um relatório da OpenAI.

Fonte da imagem: Andrew Neel/unsplash.com

De acordo com a OpenAI, que publicou na quinta-feira um relatório de segurança sobre o uso do Advanced Voice Mode (AVM) para o serviço ChatGPT, que se tornou disponível para um pequeno número de assinantes do ChatGPT Plus, a voz do chatbot ChatGPT no modo AVM soa muito realista. O chatbot reage em tempo real, consegue se adaptar às interrupções e reproduz os sons que as pessoas fazem durante uma conversa, por exemplo, risadas ou grunhidos. Ele também pode julgar o estado emocional do interlocutor pelo tom de sua voz.

Depois que a OpenAI anunciou esse recurso em seu modelo de IA generativa multimodal GPT-4o, ele começou a ser comparado ao assistente digital de IA do filme “Her” de 2013, pelo qual o personagem principal se apaixona.

Aparentemente a OpenAI está preocupada que a história fictícia se tenha revelado próxima da realidade, depois de observar utilizadores a falar com ChatGPT em modo de voz numa linguagem que “expressa ligações comuns” com a ferramenta de comunicação.

Como resultado, “os utilizadores podem formar relações sociais com IA, reduzindo a sua necessidade de interação humana – beneficiando potencialmente pessoas solitárias, mas possivelmente afetando relações saudáveis”, observou OpenAI. O relatório também descobriu que receber informações de um bot com voz humana pode tornar o usuário mais confiável do que deveria, dada a falibilidade da IA.

A OpenAI disse que a forma como os usuários interagem com o ChatGPT no modo de voz também pode, com o tempo, impactar o que é considerado normal nas interações sociais. “Nossos modelos são respeitosos, permitindo que os usuários interrompam e ‘peguem o microfone’ a qualquer momento, o que, embora esperado para IA, não é a norma nas interações humanas”, afirmou a empresa em relatório.

Ao mesmo tempo, a OpenAI enfatizou que se esforça para criar IA “com segurança” e planeja continuar estudando o potencial de “dependência emocional” dos usuários nas soluções propostas de IA.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *