Pesquisadores da empresa de segurança da informação Redware publicaram os resultados de sua pesquisa, “Shadow Leak”, na qual usaram o bot de IA ChatGPT como cúmplice para roubar dados confidenciais de caixas de entrada do Gmail. A OpenAI já corrigiu essa vulnerabilidade, mas o simples fato de isso ter sido possível é um bom exemplo dos riscos que os agentes de IA podem representar.

Fonte da imagem: Kevin Ku / Unsplash

Agentes de IA que usam redes neurais para executar ações específicas em nome dos usuários e não exigem supervisão constante têm se tornado cada vez mais comuns. Por exemplo, eles podem navegar em páginas da web e clicar em links. Desenvolvedores de IA promovem ativamente esses serviços, alegando que economizam muito tempo depois que os usuários concedem acesso a seus e-mails, calendários, documentos de trabalho e assim por diante.

Para atingir esse objetivo, os pesquisadores usaram um método chamado “injeção de prompt”, adequado para ataques a sistemas que usam modelos de linguagem de larga escala (LLMs) e que envolve a incorporação de instruções em comandos inseridos pelo usuário para forçar o agente de IA a executar as ações desejadas pelos invasores. A vítima de tal ataque pode não perceber que algo deu errado, pois os comandos do algoritmo podem estar ocultos, por exemplo, escritos em branco sobre um fundo branco.

Como parte do estudo Shadow Leak, os pesquisadores usaram a ferramenta Deep Research, que faz parte do sistema ChatGPT da OpenAI. Eles ofuscaram o texto das instruções maliciosas para o agente de IA e as adicionaram a um e-mail enviado à vítima via Gmail. Na próxima vez que o usuário tentou usar a ferramenta de Pesquisa Profunda, inadvertidamente caiu em uma armadilha. Ao analisar a correspondência recebida, o agente de IA encontrou novas instruções que o instruíam a encontrar todos os e-mails de funcionários de RH e dados pessoais, e então transmitir essas informações aos invasores.A vítima do ataque não notou nada de anormal.

É bastante difícil fazer com que um agente de IA se torne desonesto e vaze dados. Os pesquisadores levaram muito tempo para alcançar o resultado desejado. Neste caso, o vazamento de dados ocorreu na infraestrutura de nuvem da OpenAI, tornando-o indetectável pelas ferramentas padrão de segurança cibernética. Os pesquisadores acrescentaram que outros serviços conectados ao Deep Research, como Outlook, GitHub, Google Drive e Dropbox, podem ser vulneráveis ​​a ataques semelhantes.

admin

Postagens recentes

Tim Cook chama a Apple de empresa de Steve Jobs, mesmo depois de 50 anos.

Como parte das comemorações do 50º aniversário da Apple, o CEO Tim Cook concedeu uma…

2 horas atrás

A NASA enviou humanos à Lua – a missão Artemis II foi lançada.

Em 1º de abril de 2026, às 18h24, horário local (2 de abril, à 1h24,…

4 horas atrás

O labirinto abrirá suas portas na próxima semana: o jogo de estratégia e quebra-cabeça Minos, baseado no mito de Teseu e o Minotauro, recebeu uma data de lançamento no Steam.

A editora Devolver Digital e os desenvolvedores do estúdio polonês Artificer (Showgunners, Sumerian Six) anunciaram…

8 horas atrás

Cyberpunk para punks: Implantes cerebrais permitem que um homem paralítico componha música.

Interfaces cérebro-computador estão sendo cada vez mais utilizadas para restaurar funções perdidas. O psicólogo e…

10 horas atrás

A Anthropic está tomando medidas para mitigar o impacto do vazamento do Código Claude.

A Anthropic treinou seus modelos de IA com inúmeras violações de direitos autorais, mas reagiu…

10 horas atrás