A comunicação com o chatbot ChatGPT AI no novo modo de voz, quando sua voz não é diferente da humana, pode fazer com que o usuário se torne dependente da interação com a IA, escreve o recurso da CNN com referência a um relatório da OpenAI.

Fonte da imagem: Andrew Neel/unsplash.com

De acordo com a OpenAI, que publicou na quinta-feira um relatório de segurança sobre o uso do Advanced Voice Mode (AVM) para o serviço ChatGPT, que se tornou disponível para um pequeno número de assinantes do ChatGPT Plus, a voz do chatbot ChatGPT no modo AVM soa muito realista. O chatbot reage em tempo real, consegue se adaptar às interrupções e reproduz os sons que as pessoas fazem durante uma conversa, por exemplo, risadas ou grunhidos. Ele também pode julgar o estado emocional do interlocutor pelo tom de sua voz.

Depois que a OpenAI anunciou esse recurso em seu modelo de IA generativa multimodal GPT-4o, ele começou a ser comparado ao assistente digital de IA do filme “Her” de 2013, pelo qual o personagem principal se apaixona.

Aparentemente a OpenAI está preocupada que a história fictícia se tenha revelado próxima da realidade, depois de observar utilizadores a falar com ChatGPT em modo de voz numa linguagem que “expressa ligações comuns” com a ferramenta de comunicação.

Como resultado, “os utilizadores podem formar relações sociais com IA, reduzindo a sua necessidade de interação humana – beneficiando potencialmente pessoas solitárias, mas possivelmente afetando relações saudáveis”, observou OpenAI. O relatório também descobriu que receber informações de um bot com voz humana pode tornar o usuário mais confiável do que deveria, dada a falibilidade da IA.

A OpenAI disse que a forma como os usuários interagem com o ChatGPT no modo de voz também pode, com o tempo, impactar o que é considerado normal nas interações sociais. “Nossos modelos são respeitosos, permitindo que os usuários interrompam e ‘peguem o microfone’ a qualquer momento, o que, embora esperado para IA, não é a norma nas interações humanas”, afirmou a empresa em relatório.

Ao mesmo tempo, a OpenAI enfatizou que se esforça para criar IA “com segurança” e planeja continuar estudando o potencial de “dependência emocional” dos usuários nas soluções propostas de IA.

avalanche

Postagens recentes

Considerando o custo, sim: a Tesla removeu o assistente de manutenção de faixa como opção gratuita na América do Norte.

Durante muito tempo, mesmo os compradores dos modelos Tesla mais baratos recebiam o recurso Autopilot…

10 horas atrás

Se este ano a receita com a venda de memórias crescer 134%, no próximo ano crescerá apenas 53%.

Especialistas da TrendForce calcularam que a receita com DRAM cresceu 73%, atingindo US$ 165,7 bilhões…

11 horas atrás

As ações da Intel despencaram 17% após a divulgação de seu relatório trimestral.

As revelações da administração da Intel em sua recente teleconferência de resultados trimestrais desagradaram os…

11 horas atrás

O Google Fotos lançou um recurso experimental que cria memes com inteligência artificial a partir de fotos dos usuários.

O aplicativo Google Fotos lançou um novo recurso chamado Me Meme, que usa inteligência artificial…

12 horas atrás

A Coreia do Sul ultrapassou a União Europeia: foi promulgada a primeira lei básica do mundo sobre inteligência artificial.

A Coreia do Sul tornou-se o primeiro país do mundo a introduzir um conjunto abrangente…

12 horas atrás