A vulnerabilidade Reprompt permitia o roubo de dados pessoais do Microsoft Copilot com um único clique.

A empresa de pesquisa de segurança Varonis Threat Labs (VTL) publicou um relatório detalhando uma vulnerabilidade chamada Reprompt que permitia aos atacantes roubar dados pessoais das vítimas por meio do assistente de IA Copilot, da Microsoft.

Fonte da imagem: unsplash.com

“O Reprompt oferece aos atacantes um ponto de entrada invisível para executar uma cadeia de vazamento de dados que ignora completamente os controles de segurança corporativos e permite o acesso a dados confidenciais sem ser detectado — com apenas um clique”, afirma o relatório da VTL.

Para explorar a vulnerabilidade, um atacante simplesmente precisava convencer um usuário a clicar em um link de phishing, o que iniciava uma solicitação em várias etapas injetada usando o chamado “parâmetro Q”, que, segundo a VTL, permite que “plataformas com IA enviem a consulta ou solicitação de um usuário por meio de uma URL”.

“Ao incluir uma pergunta ou instrução específica no parâmetro q, desenvolvedores e usuários podem preencher automaticamente um campo de entrada quando uma página é carregada, fazendo com que o sistema de IA execute a solicitação imediatamente”, explicaram os pesquisadores da VTL. Por exemplo, um atacante poderia solicitar informações do Copilot sobre o usuário, os arquivos que ele visualizou e sua localização, e enviá-las para seus servidores.

Fonte da imagem: Varonis Threat Labs

Além disso, a VTL afirma que a vulnerabilidade Reprompt difere de outras vulnerabilidades de segurança baseadas em IA, como a EchoLeak, por exigir apenas um clique do usuário, sem a necessidade de dados adicionais. Esse ataque pode ser explorado mesmo com o Copilot fechado.

O Copilot não foi projetado para aceitar links de phishing, mas os pesquisadores da VTL conseguiram modificar a requisição para burlar as medidas de segurança do Copilot e convencer a IA a obter uma URL para enviar dados. Segundo a VTL, essa vulnerabilidade foi relatada à Microsoft em agosto de 2025 e só foi corrigida em 13 de janeiro de 2026. Atualmente, não há risco de exploração dessa falha.

Os assistentes de IA não são invulneráveis ​​e é improvável que essa seja a última vulnerabilidade de segurança do Copilot descoberta por pesquisadores. Especialistas recomendam fortemente que os usuários sejam extremamente cautelosos ao utilizar informações fornecidas a assistentes de IA e que tomem precauções ao clicar em links.

admin

Postagens recentes

Gemini aprenderá com seu histórico para personalizar as respostas — a IA poderá ser implementada no Gmail, Fotos e muito mais.

O Google está trabalhando para resolver um problema comum em assistentes de IA: a tendência…

2 horas atrás

Os desenvolvedores de Escape from Tarkov finalmente tiveram pena dos jogadores e tornaram o final menos brutal.

Os desenvolvedores do estúdio russo Battlestate Games anunciaram o lançamento de uma atualização técnica para…

3 horas atrás

O Reino Unido reprime o X: a rede social mudou sua política devido a deepfakes de conteúdo sexual provenientes do Grok.

O primeiro-ministro britânico, Keir Starmer, afirmou que a plataforma de mídia social X está "tomando…

4 horas atrás

O tablet Blackview MEGA 12, com tela grande e resistência à água, estará à venda em janeiro.

A Blackview anunciou o lançamento do tablet Blackview MEGA 12, que combina uma tela grande,…

6 horas atrás

A Phison demonstrou o aiDAPTIV+ em ação – IA até 10 vezes mais rápida em PCs comuns.

Na CES 2026, a Phison demonstrou PCs para o consumidor com o aiDAPTIV+, uma combinação…

6 horas atrás