A comunicação com o chatbot ChatGPT AI no novo modo de voz, quando sua voz não é diferente da humana, pode fazer com que o usuário se torne dependente da interação com a IA, escreve o recurso da CNN com referência a um relatório da OpenAI.

Fonte da imagem: Andrew Neel/unsplash.com

De acordo com a OpenAI, que publicou na quinta-feira um relatório de segurança sobre o uso do Advanced Voice Mode (AVM) para o serviço ChatGPT, que se tornou disponível para um pequeno número de assinantes do ChatGPT Plus, a voz do chatbot ChatGPT no modo AVM soa muito realista. O chatbot reage em tempo real, consegue se adaptar às interrupções e reproduz os sons que as pessoas fazem durante uma conversa, por exemplo, risadas ou grunhidos. Ele também pode julgar o estado emocional do interlocutor pelo tom de sua voz.

Depois que a OpenAI anunciou esse recurso em seu modelo de IA generativa multimodal GPT-4o, ele começou a ser comparado ao assistente digital de IA do filme “Her” de 2013, pelo qual o personagem principal se apaixona.

Aparentemente a OpenAI está preocupada que a história fictícia se tenha revelado próxima da realidade, depois de observar utilizadores a falar com ChatGPT em modo de voz numa linguagem que “expressa ligações comuns” com a ferramenta de comunicação.

Como resultado, “os utilizadores podem formar relações sociais com IA, reduzindo a sua necessidade de interação humana – beneficiando potencialmente pessoas solitárias, mas possivelmente afetando relações saudáveis”, observou OpenAI. O relatório também descobriu que receber informações de um bot com voz humana pode tornar o usuário mais confiável do que deveria, dada a falibilidade da IA.

A OpenAI disse que a forma como os usuários interagem com o ChatGPT no modo de voz também pode, com o tempo, impactar o que é considerado normal nas interações sociais. “Nossos modelos são respeitosos, permitindo que os usuários interrompam e ‘peguem o microfone’ a qualquer momento, o que, embora esperado para IA, não é a norma nas interações humanas”, afirmou a empresa em relatório.

Ao mesmo tempo, a OpenAI enfatizou que se esforça para criar IA “com segurança” e planeja continuar estudando o potencial de “dependência emocional” dos usuários nas soluções propostas de IA.

avalanche

Postagens recentes

A Starlink vai desativar seu próprio “análogo de GPS” que quase ninguém conhecia.

A provedora de internet via satélite Starlink notificou seus usuários de que desativaria seu recurso…

23 minutos atrás

A Canon fechou mais uma fábrica de impressoras a laser e multifuncionais.

No segmento de equipamentos de impressão de documentos para escritório, os fabricantes japoneses enfrentam pressão…

23 minutos atrás

A OpenAI criou uma subsidiária que se concentrará na implementação de IA empresarial.

A OpenAI anunciou a criação de uma nova empresa com um investimento inicial de mais…

23 minutos atrás

A Thinking Machines está desenvolvendo uma IA “full-duplex” que pode ouvir e falar simultaneamente.

A Thinking Machines Lab, uma startup fundada no ano passado pela ex-diretora de tecnologia da…

23 minutos atrás

A Meta✴ está preparando racks de IA de cinco toneladas com chips da AMD.

O Open Compute Project (OCP) lançou a especificação de rack de servidor Open Rack Wide…

2 horas atrás