Um sistema para gerar deepfakes de voz em tempo real foi desenvolvido e provavelmente será usado por golpistas.

O NCC Group, uma empresa de segurança cibernética, desenvolveu um método baseado em IA para recriar a voz de qualquer pessoa em tempo real. O sistema é construído usando software de código aberto e hardware pronto para uso.

Fonte da imagem: Vitaly Gariev / unsplash.com

Após o treinamento, a ferramenta de criação de deepfakes de voz em tempo real é ativada com apenas um clique. Controlada por uma interface web, ela permite que um possível invasor se faça passar por qualquer pessoa. Mesmo que a qualidade do sinal de entrada seja ruim, a voz de saída ainda soa convincente e a latência é insignificante. Isso significa que esta solução pode ser usada até mesmo com microfones embutidos em laptops e smartphones.

A operação em tempo real é uma vantagem significativa. As tecnologias existentes de falsificação de voz geram um arquivo de áudio. Isso significa que um invasor pode pré-gravar suas falas, mas uma vítima em potencial descobrirá facilmente o esquema se a conversa se desviar do cenário esperado. E se um golpista tentar gerar um deepfake na hora, o atraso na conversa o denunciará. Os engenheiros do NCC Group testaram sua tecnologia em seus próprios clientes — com a permissão deles, é claro — e nunca notaram um truque. A parte de software da solução utiliza ferramentas de código aberto e, para um desempenho de hardware eficiente, placas gráficas potentes são recomendadas. Mesmo um laptop com uma das placas de vídeo menos potentes da atual linha Nvidia RTX A1000 produziu uma latência de apenas meio segundo.

Felizmente, deepfakes com vídeos ainda não funcionam em tempo real. Atualmente, as principais redes sociais, incluindo TikTok, YouTube e Instagram, estão vivenciando uma nova onda de deepfakes de vídeo, criados com duas ferramentas: o gerador de imagens Google Gemini Flash 2.5 (também conhecido como Nano Banana) e o gerador de vídeo de código aberto Alibaba WAN 2.2 Animate.Eles permitem que qualquer pessoa seja adicionada a um vídeo. Uma fraqueza dos deepfakes em vídeo continua sendo a falta de consistência entre imagem e áudio — as expressões faciais nem sempre correspondem à entonação, e se uma pessoa parece agitada, mas seu rosto permanece calmo, provavelmente é uma farsa. No entanto, novas soluções exigem medidas de segurança aprimoradas: os métodos de autenticação não devem mais depender de chamadas de voz e vídeo, alertam especialistas.

admin

Postagens recentes

Os elogios de Trump ao CEO da Intel fizeram com que as ações da empresa disparassem 10%.

No ano passado, ocorreu um precedente interessante: o governo dos EUA adquiriu efetivamente quase 10%…

3 horas atrás

Elon Musk prometeu divulgar o código-fonte do novo algoritmo X em sete dias.

O negócio de software do bilionário americano Elon Musk está enfrentando desafios em termos de…

4 horas atrás

A Nvidia respondeu rapidamente à onda de críticas após o lançamento do DGX Spark.

O "supercomputador de mesa" DGX Spark, apresentado no final do ano passado, atraiu críticas consideráveis…

4 horas atrás

O Japão está enfrentando uma escassez de placas de vídeo, com o problema afetando atualmente os modelos GeForce RTX 5060 Ti de 16 GB e superiores.

Segundo a ITmedia, surgiu uma escassez de aceleradores gráficos de alta gama no mercado japonês.…

12 horas atrás

O Instagram vazou dados de 17,5 milhões de contas, e esses dados já estão sendo usados ​​por hackers.

A empresa de software de cibersegurança Malwarebytes anunciou uma violação de dados confirmada que afetou…

13 horas atrás