A vulnerabilidade Reprompt permitia o roubo de dados pessoais do Microsoft Copilot com um único clique.

A empresa de pesquisa de segurança Varonis Threat Labs (VTL) publicou um relatório detalhando uma vulnerabilidade chamada Reprompt que permitia aos atacantes roubar dados pessoais das vítimas por meio do assistente de IA Copilot, da Microsoft.

Fonte da imagem: unsplash.com

“O Reprompt oferece aos atacantes um ponto de entrada invisível para executar uma cadeia de vazamento de dados que ignora completamente os controles de segurança corporativos e permite o acesso a dados confidenciais sem ser detectado — com apenas um clique”, afirma o relatório da VTL.

Para explorar a vulnerabilidade, um atacante simplesmente precisava convencer um usuário a clicar em um link de phishing, o que iniciava uma solicitação em várias etapas injetada usando o chamado “parâmetro Q”, que, segundo a VTL, permite que “plataformas com IA enviem a consulta ou solicitação de um usuário por meio de uma URL”.

“Ao incluir uma pergunta ou instrução específica no parâmetro q, desenvolvedores e usuários podem preencher automaticamente um campo de entrada quando uma página é carregada, fazendo com que o sistema de IA execute a solicitação imediatamente”, explicaram os pesquisadores da VTL. Por exemplo, um atacante poderia solicitar informações do Copilot sobre o usuário, os arquivos que ele visualizou e sua localização, e enviá-las para seus servidores.

Fonte da imagem: Varonis Threat Labs

Além disso, a VTL afirma que a vulnerabilidade Reprompt difere de outras vulnerabilidades de segurança baseadas em IA, como a EchoLeak, por exigir apenas um clique do usuário, sem a necessidade de dados adicionais. Esse ataque pode ser explorado mesmo com o Copilot fechado.

O Copilot não foi projetado para aceitar links de phishing, mas os pesquisadores da VTL conseguiram modificar a requisição para burlar as medidas de segurança do Copilot e convencer a IA a obter uma URL para enviar dados. Segundo a VTL, essa vulnerabilidade foi relatada à Microsoft em agosto de 2025 e só foi corrigida em 13 de janeiro de 2026. Atualmente, não há risco de exploração dessa falha.

Os assistentes de IA não são invulneráveis ​​e é improvável que essa seja a última vulnerabilidade de segurança do Copilot descoberta por pesquisadores. Especialistas recomendam fortemente que os usuários sejam extremamente cautelosos ao utilizar informações fornecidas a assistentes de IA e que tomem precauções ao clicar em links.

admin

Postagens recentes

O driver mais recente da Intel irá acelerar os tempos de carregamento de jogos para algumas GPUs Arc.

A Intel lançou a versão 32.0.101.8626 WHQL do driver gráfico, que adiciona o recurso Graphics…

57 minutos atrás

A Meta decidiu descontinuar o metaverso Horizon Worlds nos headsets de realidade virtual Quest, após pedidos de “fãs preocupados”.

Esta semana, a Meta✴Platforms anunciou que a plataforma de realidade virtual Horizon World seria descontinuada…

1 hora atrás

A Waymo gabou-se de que seus táxis autônomos percorreram mais de 270 milhões de quilômetros sem incidentes graves.

A Waymo anunciou que seus táxis autônomos percorreram mais de 270 milhões de quilômetros sem…

1 hora atrás

Cultivando a Inteligência Artificial Geral (IAG) em sua equipe / Inteligência Artificial

A busca por um gato preto em um quarto escuro (especialmente se for a versão…

2 horas atrás

A Xiaomi apresentou a próxima geração do carro elétrico SU7, com autonomia de até 902 km, LiDAR de série e, mais uma vez, mais barato que um Tesla.

A Xiaomi apresentou hoje oficialmente uma versão atualizada do veículo elétrico Xiaomi SU7, com uma…

4 horas atrás

O veículo explorador Perseverance descobriu um antigo delta de rio escondido sob a superfície de Marte.

Como é sabido, o rover Perseverance da NASA está explorando o delta de um antigo…

4 horas atrás