Na conferência Black Hat USA, o pesquisador de segurança cibernética Michael Bargury demonstrou as vulnerabilidades do assistente de inteligência artificial Copilot da Microsoft – invasores em potencial poderiam usá-lo para ataques cibernéticos. Seu projeto indica que as organizações devem rever as políticas de segurança ao usar tecnologias de IA, incluindo o Copilot.

Fonte da imagem: Ivana Tomášková / pixabay.com

Bargouri identificou vários métodos pelos quais os invasores podem usar o Microsoft Copilot para realizar ataques cibernéticos. Os plug-ins do Copilot, em particular, permitem instalar backdoors que podem ser explorados quando outros usuários trabalham com IA, e também servem como auxílio na realização de ataques que envolvem métodos de engenharia social.

Usando a injeção de consulta, um hacker modifica as respostas da IA ​​para atender aos seus objetivos, permitindo-lhe pesquisar e extrair dados secretamente, contornando as medidas padrão de segurança de arquivos e informações. A IA também provou ser uma arma eficaz em ataques de engenharia social – o Copilot pode ser usado para criar e-mails de phishing convincentes e preparar outros métodos de interação com vítimas potenciais das quais um cibercriminoso está tentando obter informações confidenciais.

Para demonstrar essas vulnerabilidades, Bargouri criou o LOLCopilot, uma ferramenta projetada para hackers éticos que é executada em qualquer cliente habilitado para Microsoft 365 Copilot usando configurações padrão. Os especialistas em segurança cibernética podem usá-lo para explorar cenários de exploração de vulnerabilidades do Copilot para roubar dados e lançar ataques de phishing.

O desenvolvedor aponta que as configurações de segurança padrão existentes do Microsoft Copilot não são eficazes o suficiente para evitar esses ataques. A disponibilidade de uma ferramenta para aceder e processar grandes quantidades de dados demonstra o risco envolvido na operação de sistemas de IA. O pesquisador recomenda a implementação de medidas adicionais de segurança, incluindo autenticação multifatorial e controle rigoroso de acesso aos dados. Além disso, os funcionários precisam ser informados sobre os riscos associados à IA e ter protocolos abrangentes de resposta a incidentes em vigor.

avalanche

Postagens recentes

Slay the Spire 2 – Adeus Tempo Livre! Prévia / Jogos

Passei mais de quatrocentas horas jogando o primeiro Slay the Spire, e que horas maravilhosas…

3 horas atrás

A nova temporada de Warface, “Steel Quarters”, promete: brutalidade em todas as pistas de patinação!

Warface vem encantando fãs de ação online há quase quatorze anos, e a temporada "Steel…

4 horas atrás

O SoftBank tomou emprestado US$ 40 bilhões por um ano para investir na OpenAI.

O SoftBank Group, holding multinacional japonesa e um dos maiores investidores mundiais no setor de…

6 horas atrás

A Meta construirá sete usinas termelétricas a gás com capacidade total de 5,2 GW para acompanhar a corrida da IA.

Segundo a Bloomberg, a Meta✴ financiará a construção de sete novas usinas termelétricas a gás…

6 horas atrás

“Mandem-me para o futuro para que eu possa jogar este jogo”: Novas imagens de jogabilidade do RPG de ação no estilo Mass Effect, Exodus, deixam os fãs empolgados.

A Archetype Entertainment, veterana da BioWare, divulgou novas imagens de jogabilidade de Exodus, seu ambicioso…

6 horas atrás

Uma vulnerabilidade zero-day perigosa foi descoberta no Telegram, mas os detalhes estão sendo mantidos em segredo.

Michael Deplante, especialista em segurança da informação associado à Zero Day Initiative da TrendAI, descobriu…

6 horas atrás