A vulnerabilidade Reprompt permitia o roubo de dados pessoais do Microsoft Copilot com um único clique.

A empresa de pesquisa de segurança Varonis Threat Labs (VTL) publicou um relatório detalhando uma vulnerabilidade chamada Reprompt que permitia aos atacantes roubar dados pessoais das vítimas por meio do assistente de IA Copilot, da Microsoft.

Fonte da imagem: unsplash.com

“O Reprompt oferece aos atacantes um ponto de entrada invisível para executar uma cadeia de vazamento de dados que ignora completamente os controles de segurança corporativos e permite o acesso a dados confidenciais sem ser detectado — com apenas um clique”, afirma o relatório da VTL.

Para explorar a vulnerabilidade, um atacante simplesmente precisava convencer um usuário a clicar em um link de phishing, o que iniciava uma solicitação em várias etapas injetada usando o chamado “parâmetro Q”, que, segundo a VTL, permite que “plataformas com IA enviem a consulta ou solicitação de um usuário por meio de uma URL”.

“Ao incluir uma pergunta ou instrução específica no parâmetro q, desenvolvedores e usuários podem preencher automaticamente um campo de entrada quando uma página é carregada, fazendo com que o sistema de IA execute a solicitação imediatamente”, explicaram os pesquisadores da VTL. Por exemplo, um atacante poderia solicitar informações do Copilot sobre o usuário, os arquivos que ele visualizou e sua localização, e enviá-las para seus servidores.

Fonte da imagem: Varonis Threat Labs

Além disso, a VTL afirma que a vulnerabilidade Reprompt difere de outras vulnerabilidades de segurança baseadas em IA, como a EchoLeak, por exigir apenas um clique do usuário, sem a necessidade de dados adicionais. Esse ataque pode ser explorado mesmo com o Copilot fechado.

O Copilot não foi projetado para aceitar links de phishing, mas os pesquisadores da VTL conseguiram modificar a requisição para burlar as medidas de segurança do Copilot e convencer a IA a obter uma URL para enviar dados. Segundo a VTL, essa vulnerabilidade foi relatada à Microsoft em agosto de 2025 e só foi corrigida em 13 de janeiro de 2026. Atualmente, não há risco de exploração dessa falha.

Os assistentes de IA não são invulneráveis ​​e é improvável que essa seja a última vulnerabilidade de segurança do Copilot descoberta por pesquisadores. Especialistas recomendam fortemente que os usuários sejam extremamente cautelosos ao utilizar informações fornecidas a assistentes de IA e que tomem precauções ao clicar em links.

admin

Postagens recentes

Jeff Bezos planeja arrecadar US$ 100 bilhões para atender às necessidades da startup de inteligência artificial Project Prometheus.

O bilionário americano Jeff Bezos, fundador da Amazon e da empresa aeroespacial Blue Origin, está…

4 horas atrás

Um tribunal considerou Elon Musk culpado de enganar investidores na preparação para a compra do Twitter.

Ontem, um júri federal da Califórnia considerou Elon Musk culpado de enganar investidores no acordo…

5 horas atrás

A Nintendo tornará a bateria do Switch 2 substituível, mas apenas na Europa.

A Nintendo está preparando uma versão especial do Switch 2 para usuários europeus, com bateria…

6 horas atrás

A xAI conquistou um cliente importante da OpenAI usando uma tática de “empurrão”.

A xAI de Elon Musk começou a enviar seus engenheiros diretamente aos escritórios de potenciais…

6 horas atrás

A barra de tarefas do Windows 11 ainda poderá ser movida, assim como no Windows 10.

A Microsoft anunciou o retorno do recurso de realocação da barra de tarefas no Windows…

10 horas atrás

A barra de tarefas do Windows 11 ainda poderá ser movida, assim como no Windows 10.

A Microsoft anunciou o retorno do recurso de realocação da barra de tarefas no Windows…

10 horas atrás