Um sistema para gerar deepfakes de voz em tempo real foi desenvolvido e provavelmente será usado por golpistas.

O NCC Group, uma empresa de segurança cibernética, desenvolveu um método baseado em IA para recriar a voz de qualquer pessoa em tempo real. O sistema é construído usando software de código aberto e hardware pronto para uso.

Fonte da imagem: Vitaly Gariev / unsplash.com

Após o treinamento, a ferramenta de criação de deepfakes de voz em tempo real é ativada com apenas um clique. Controlada por uma interface web, ela permite que um possível invasor se faça passar por qualquer pessoa. Mesmo que a qualidade do sinal de entrada seja ruim, a voz de saída ainda soa convincente e a latência é insignificante. Isso significa que esta solução pode ser usada até mesmo com microfones embutidos em laptops e smartphones.

A operação em tempo real é uma vantagem significativa. As tecnologias existentes de falsificação de voz geram um arquivo de áudio. Isso significa que um invasor pode pré-gravar suas falas, mas uma vítima em potencial descobrirá facilmente o esquema se a conversa se desviar do cenário esperado. E se um golpista tentar gerar um deepfake na hora, o atraso na conversa o denunciará. Os engenheiros do NCC Group testaram sua tecnologia em seus próprios clientes — com a permissão deles, é claro — e nunca notaram um truque. A parte de software da solução utiliza ferramentas de código aberto e, para um desempenho de hardware eficiente, placas gráficas potentes são recomendadas. Mesmo um laptop com uma das placas de vídeo menos potentes da atual linha Nvidia RTX A1000 produziu uma latência de apenas meio segundo.

Felizmente, deepfakes com vídeos ainda não funcionam em tempo real. Atualmente, as principais redes sociais, incluindo TikTok, YouTube e Instagram, estão vivenciando uma nova onda de deepfakes de vídeo, criados com duas ferramentas: o gerador de imagens Google Gemini Flash 2.5 (também conhecido como Nano Banana) e o gerador de vídeo de código aberto Alibaba WAN 2.2 Animate.Eles permitem que qualquer pessoa seja adicionada a um vídeo. Uma fraqueza dos deepfakes em vídeo continua sendo a falta de consistência entre imagem e áudio — as expressões faciais nem sempre correspondem à entonação, e se uma pessoa parece agitada, mas seu rosto permanece calmo, provavelmente é uma farsa. No entanto, novas soluções exigem medidas de segurança aprimoradas: os métodos de autenticação não devem mais depender de chamadas de voz e vídeo, alertam especialistas.

admin

Postagens recentes

Tesla e SpaceX construirão fábrica gigante de chips de IA no Texas.

No último sábado, Elon Musk prometeu compartilhar novos detalhes sobre a chamada "terafábrica" ​​para a…

3 horas atrás

Atualmente, a Micron só consegue atender a dois terços da demanda de memória necessária.

Anúncios recentes da administração da Micron Technology sobre o aumento dos investimentos para melhor atender…

3 horas atrás

Usuários da versão gratuita do ChatGPT nos EUA serão obrigados a visualizar anúncios nas próximas semanas.

Para muitas empresas ligadas à internet e à tecnologia da informação, a venda de publicidade…

5 horas atrás

A IA teve permissão para criar e criou um robô exterminador — feio, mas indestrutível.

Cientistas da Universidade Northwestern, nos EUA, conduziram um estudo inédito em robótica, aplicando inteligência artificial…

10 horas atrás

A Apple queria adquirir a Halide, desenvolvedora de aplicativos de câmera, mas isso causou um desentendimento entre os fundadores da startup.

A Apple planejava aprimorar o aplicativo Câmera do iPhone 18 Pro e considerou adquirir a…

15 horas atrás