A comunicação com o chatbot ChatGPT AI no novo modo de voz, quando sua voz não é diferente da humana, pode fazer com que o usuário se torne dependente da interação com a IA, escreve o recurso da CNN com referência a um relatório da OpenAI.

Fonte da imagem: Andrew Neel/unsplash.com

De acordo com a OpenAI, que publicou na quinta-feira um relatório de segurança sobre o uso do Advanced Voice Mode (AVM) para o serviço ChatGPT, que se tornou disponível para um pequeno número de assinantes do ChatGPT Plus, a voz do chatbot ChatGPT no modo AVM soa muito realista. O chatbot reage em tempo real, consegue se adaptar às interrupções e reproduz os sons que as pessoas fazem durante uma conversa, por exemplo, risadas ou grunhidos. Ele também pode julgar o estado emocional do interlocutor pelo tom de sua voz.

Depois que a OpenAI anunciou esse recurso em seu modelo de IA generativa multimodal GPT-4o, ele começou a ser comparado ao assistente digital de IA do filme “Her” de 2013, pelo qual o personagem principal se apaixona.

Aparentemente a OpenAI está preocupada que a história fictícia se tenha revelado próxima da realidade, depois de observar utilizadores a falar com ChatGPT em modo de voz numa linguagem que “expressa ligações comuns” com a ferramenta de comunicação.

Como resultado, “os utilizadores podem formar relações sociais com IA, reduzindo a sua necessidade de interação humana – beneficiando potencialmente pessoas solitárias, mas possivelmente afetando relações saudáveis”, observou OpenAI. O relatório também descobriu que receber informações de um bot com voz humana pode tornar o usuário mais confiável do que deveria, dada a falibilidade da IA.

A OpenAI disse que a forma como os usuários interagem com o ChatGPT no modo de voz também pode, com o tempo, impactar o que é considerado normal nas interações sociais. “Nossos modelos são respeitosos, permitindo que os usuários interrompam e ‘peguem o microfone’ a qualquer momento, o que, embora esperado para IA, não é a norma nas interações humanas”, afirmou a empresa em relatório.

Ao mesmo tempo, a OpenAI enfatizou que se esforça para criar IA “com segurança” e planeja continuar estudando o potencial de “dependência emocional” dos usuários nas soluções propostas de IA.

avalanche

Postagens recentes

Inteligência Artificial Suja: Os centros de dados estão utilizando cada vez mais turbinas a gás prejudiciais ao meio ambiente.

À medida que os centros de dados demandam cada vez mais energia, um recurso escasso,…

35 minutos atrás

Inteligência Artificial Suja: Os centros de dados estão utilizando cada vez mais turbinas a gás prejudiciais ao meio ambiente.

À medida que os centros de dados demandam cada vez mais energia, um recurso escasso,…

35 minutos atrás

The Elder Scrolls VI retornará ao estilo clássico dos jogos da Bethesda, e Starfield não receberá a atualização 2.0.

Todd Howard, CEO e diretor criativo da Bethesda Game Studios, comentou sobre o desenvolvimento do…

35 minutos atrás

A Valve colocou o oportunista de patentes Lee Rothschild em seu devido lugar, garantindo-lhe responsabilidade pessoal.

A Valve obteve uma vitória abrangente contra o notório inventor e explorador de patentes Leigh…

1 hora atrás

A Tesla montou o primeiro Cybercab, um robô-táxi, um veículo sem volante ou pedais, mas ele ainda não estará nas ruas.

A promessa de Elon Musk de inundar as ruas das cidades americanas com táxis robóticos…

1 hora atrás