A vulnerabilidade Reprompt permitia o roubo de dados pessoais do Microsoft Copilot com um único clique.

A empresa de pesquisa de segurança Varonis Threat Labs (VTL) publicou um relatório detalhando uma vulnerabilidade chamada Reprompt que permitia aos atacantes roubar dados pessoais das vítimas por meio do assistente de IA Copilot, da Microsoft.

Fonte da imagem: unsplash.com

“O Reprompt oferece aos atacantes um ponto de entrada invisível para executar uma cadeia de vazamento de dados que ignora completamente os controles de segurança corporativos e permite o acesso a dados confidenciais sem ser detectado — com apenas um clique”, afirma o relatório da VTL.

Para explorar a vulnerabilidade, um atacante simplesmente precisava convencer um usuário a clicar em um link de phishing, o que iniciava uma solicitação em várias etapas injetada usando o chamado “parâmetro Q”, que, segundo a VTL, permite que “plataformas com IA enviem a consulta ou solicitação de um usuário por meio de uma URL”.

“Ao incluir uma pergunta ou instrução específica no parâmetro q, desenvolvedores e usuários podem preencher automaticamente um campo de entrada quando uma página é carregada, fazendo com que o sistema de IA execute a solicitação imediatamente”, explicaram os pesquisadores da VTL. Por exemplo, um atacante poderia solicitar informações do Copilot sobre o usuário, os arquivos que ele visualizou e sua localização, e enviá-las para seus servidores.

Fonte da imagem: Varonis Threat Labs

Além disso, a VTL afirma que a vulnerabilidade Reprompt difere de outras vulnerabilidades de segurança baseadas em IA, como a EchoLeak, por exigir apenas um clique do usuário, sem a necessidade de dados adicionais. Esse ataque pode ser explorado mesmo com o Copilot fechado.

O Copilot não foi projetado para aceitar links de phishing, mas os pesquisadores da VTL conseguiram modificar a requisição para burlar as medidas de segurança do Copilot e convencer a IA a obter uma URL para enviar dados. Segundo a VTL, essa vulnerabilidade foi relatada à Microsoft em agosto de 2025 e só foi corrigida em 13 de janeiro de 2026. Atualmente, não há risco de exploração dessa falha.

Os assistentes de IA não são invulneráveis ​​e é improvável que essa seja a última vulnerabilidade de segurança do Copilot descoberta por pesquisadores. Especialistas recomendam fortemente que os usuários sejam extremamente cautelosos ao utilizar informações fornecidas a assistentes de IA e que tomem precauções ao clicar em links.

admin

Postagens recentes

A IA com “olhos” acabou sendo várias vezes mais cara do que uma API comum — os agentes estão consumindo todo o orçamento visitando sites.

Empresas que utilizam agentes de inteligência artificial podem gastar significativamente mais dinheiro se esses agentes…

2 horas atrás

O “Perfil de Baixa Latência” acelerará o Windows 11, mas o processador terá que trabalhar em velocidade máxima por curtos períodos de tempo.

O Windows 11 introduzirá um novo recurso chamado "Perfil de Baixa Latência", que aumentará a…

2 horas atrás

A IBM chegou a querer eliminar a tecla Tab para navegação, mas a Microsoft discordou, citando a mãe de Bill Gates.

Muito antes da tecla Copilot ou mesmo do Windows aparecerem nos teclados, a Microsoft e…

2 horas atrás

A Apple encomendará um novo lote de chips A18 Pro devido à alta demanda pelo MacBook Neo.

O MacBook Neo, com seu preço acessível, tornou-se um verdadeiro sucesso – a Apple mencionou…

2 horas atrás

O CEO da Take-Two assume a culpa pelos fracassos de Sid Meier’s Civilization VII, e a atualização Test of Time corrigirá o principal problema do jogo.

Strauss Zelnick, CEO da Take-Two Interactive, comentou sobre os fracassos do jogo de estratégia global…

2 horas atrás

A União Europeia quer impedir que nuvens americanas tenham acesso a dados governamentais confidenciais.

A União Europeia está considerando medidas legais que restringem o processamento de dados confidenciais da…

3 horas atrás