A vulnerabilidade Reprompt permitia o roubo de dados pessoais do Microsoft Copilot com um único clique.

A empresa de pesquisa de segurança Varonis Threat Labs (VTL) publicou um relatório detalhando uma vulnerabilidade chamada Reprompt que permitia aos atacantes roubar dados pessoais das vítimas por meio do assistente de IA Copilot, da Microsoft.

Fonte da imagem: unsplash.com

“O Reprompt oferece aos atacantes um ponto de entrada invisível para executar uma cadeia de vazamento de dados que ignora completamente os controles de segurança corporativos e permite o acesso a dados confidenciais sem ser detectado — com apenas um clique”, afirma o relatório da VTL.

Para explorar a vulnerabilidade, um atacante simplesmente precisava convencer um usuário a clicar em um link de phishing, o que iniciava uma solicitação em várias etapas injetada usando o chamado “parâmetro Q”, que, segundo a VTL, permite que “plataformas com IA enviem a consulta ou solicitação de um usuário por meio de uma URL”.

“Ao incluir uma pergunta ou instrução específica no parâmetro q, desenvolvedores e usuários podem preencher automaticamente um campo de entrada quando uma página é carregada, fazendo com que o sistema de IA execute a solicitação imediatamente”, explicaram os pesquisadores da VTL. Por exemplo, um atacante poderia solicitar informações do Copilot sobre o usuário, os arquivos que ele visualizou e sua localização, e enviá-las para seus servidores.

Fonte da imagem: Varonis Threat Labs

Além disso, a VTL afirma que a vulnerabilidade Reprompt difere de outras vulnerabilidades de segurança baseadas em IA, como a EchoLeak, por exigir apenas um clique do usuário, sem a necessidade de dados adicionais. Esse ataque pode ser explorado mesmo com o Copilot fechado.

O Copilot não foi projetado para aceitar links de phishing, mas os pesquisadores da VTL conseguiram modificar a requisição para burlar as medidas de segurança do Copilot e convencer a IA a obter uma URL para enviar dados. Segundo a VTL, essa vulnerabilidade foi relatada à Microsoft em agosto de 2025 e só foi corrigida em 13 de janeiro de 2026. Atualmente, não há risco de exploração dessa falha.

Os assistentes de IA não são invulneráveis ​​e é improvável que essa seja a última vulnerabilidade de segurança do Copilot descoberta por pesquisadores. Especialistas recomendam fortemente que os usuários sejam extremamente cautelosos ao utilizar informações fornecidas a assistentes de IA e que tomem precauções ao clicar em links.

admin

Postagens recentes

A divulgação dos resultados trimestrais causou, na verdade, uma queda no preço das ações da Nvidia.

Na véspera da divulgação dos resultados trimestrais da Nvidia, alguns especialistas alertaram que uma queda…

2 horas atrás

A versão gratuita do Gemini recebeu um recurso premium chamado “Conversas Anteriores”.

O Google começou a disponibilizar globalmente o recurso "Conversas Anteriores" para usuários da versão gratuita…

7 horas atrás

O Metacritic removeu uma análise de Resident Evil Requiem do respeitado site de jogos, pois a nova administração substituiu os avaliadores por inteligência artificial.

O agregador de críticas Metacritic removeu uma crítica do respeitado site britânico Videogamer da página…

8 horas atrás

AMD lança driver com suporte para Resident Evil Requiem e Marathon.

A AMD lançou a versão mais recente do driver gráfico Radeon Software Adrenalin 26.2.2 WHQL.…

9 horas atrás

O novo driver da Nvidia danificou as ventoinhas das placas RTX 5000 — a atualização durou apenas algumas horas.

A Nvidia reverteu os drivers Game Ready e Studio595.59 WHQL, que haviam sido lançados há…

9 horas atrás