A comunicação com o chatbot ChatGPT AI no novo modo de voz, quando sua voz não é diferente da humana, pode fazer com que o usuário se torne dependente da interação com a IA, escreve o recurso da CNN com referência a um relatório da OpenAI.

Fonte da imagem: Andrew Neel/unsplash.com

De acordo com a OpenAI, que publicou na quinta-feira um relatório de segurança sobre o uso do Advanced Voice Mode (AVM) para o serviço ChatGPT, que se tornou disponível para um pequeno número de assinantes do ChatGPT Plus, a voz do chatbot ChatGPT no modo AVM soa muito realista. O chatbot reage em tempo real, consegue se adaptar às interrupções e reproduz os sons que as pessoas fazem durante uma conversa, por exemplo, risadas ou grunhidos. Ele também pode julgar o estado emocional do interlocutor pelo tom de sua voz.

Depois que a OpenAI anunciou esse recurso em seu modelo de IA generativa multimodal GPT-4o, ele começou a ser comparado ao assistente digital de IA do filme “Her” de 2013, pelo qual o personagem principal se apaixona.

Aparentemente a OpenAI está preocupada que a história fictícia se tenha revelado próxima da realidade, depois de observar utilizadores a falar com ChatGPT em modo de voz numa linguagem que “expressa ligações comuns” com a ferramenta de comunicação.

Como resultado, “os utilizadores podem formar relações sociais com IA, reduzindo a sua necessidade de interação humana – beneficiando potencialmente pessoas solitárias, mas possivelmente afetando relações saudáveis”, observou OpenAI. O relatório também descobriu que receber informações de um bot com voz humana pode tornar o usuário mais confiável do que deveria, dada a falibilidade da IA.

A OpenAI disse que a forma como os usuários interagem com o ChatGPT no modo de voz também pode, com o tempo, impactar o que é considerado normal nas interações sociais. “Nossos modelos são respeitosos, permitindo que os usuários interrompam e ‘peguem o microfone’ a qualquer momento, o que, embora esperado para IA, não é a norma nas interações humanas”, afirmou a empresa em relatório.

Ao mesmo tempo, a OpenAI enfatizou que se esforça para criar IA “com segurança” e planeja continuar estudando o potencial de “dependência emocional” dos usuários nas soluções propostas de IA.

avalanche

Postagens recentes

A British Royal Mint começou a extrair ouro de placas-mãe

A Royal Mint, fabricante oficial de moedas do Reino Unido, abriu uma instalação em Gales…

59 minutos atrás

Pesquisador demonstra desvio da proteção do Microsoft Copilot

Na conferência Black Hat USA, o pesquisador de segurança cibernética Michael Bargury demonstrou as vulnerabilidades…

2 horas atrás

A ex-CEO do YouTube, Susan Wojcicki, que trabalhava no Google desde 1998, faleceu.

Susan Wojcicki, que se tornou a 16ª funcionária do Google, ajudou a iniciar a empresa…

3 horas atrás

Foram desenvolvidos painéis solares de película fina: eles podem ser montados em qualquer coisa – de mochilas a carros.

Pesquisadores do Departamento de Física da Universidade de Oxford desenvolveram uma abordagem revolucionária para difundir…

3 horas atrás

Western Digital lançou o primeiro cartão SD de 8 TB do mundo

A Western Digital apresentou os cartões SD e microSD de maior capacidade do mundo, um…

5 horas atrás