De acordo com especialistas do Google Threat Intelligence Group, os cibercriminosos não estão mais apenas experimentando a inteligência artificial durante ataques cibernéticos, mas a estão usando como uma ferramenta padrão, acessada regularmente por malware.

Fonte da imagem: cloud.google.com/blog

Algumas famílias de malware fazem chamadas diretas ao assistente de IA Gemini ao executar ciberataques, observaram pesquisadores de cibersegurança do Google. O malware solicita dinamicamente a geração de código do modelo ao realizar tarefas específicas, permitindo que os fragmentos correspondentes sejam omitidos do código principal. Por exemplo, o malware da família HONESTCUE enviou solicitações para gerar código C# que foi executado na cadeia de ataque. A lógica é movida para fora do binário estático, o que complica os métodos tradicionais de detecção baseados em assinaturas ou indicadores comportamentais.

Outro tipo de ataque envolve tentativas de replicar modelos de IA por meio de destilação. Os atacantes enviam grandes volumes de consultas estruturadas aos modelos para replicar seu comportamento, padrões de resposta e lógica interna. Ao analisar sistematicamente a saída, os atacantes podem replicar as capacidades de modelos de IA proprietários com certa precisão, treinando sistemas alternativos sem incorrer nos custos de desenvolvimento e infraestrutura associados à sua criação do zero. O Google identificou e interrompeu com sucesso campanhas envolvendo grandes volumes de consultas destinadas a extrair conhecimento de modelos Gemini.

O uso de IA por grupos de hackers apoiados por governos está aumentando rapidamente. A IA é usada em reconhecimento, pesquisa de vulnerabilidades, desenvolvimento de scripts e geração de conteúdo de phishing. Modelos generativos de IA estão se mostrando úteis na criação de iscas convincentes, na depuração de fragmentos de código malicioso e na aceleração da pesquisa técnica contra sistemas-alvo. Os cibercriminosos estão explorando o potencial da IA ​​baseada em agentes — ela pode ser desenvolvida para executar tarefas em várias etapas com intervenção humana mínima, o que significa que futuros malwares provavelmente incorporarão elementos de tomada de decisão autônoma. Na prática, essas ferramentas ainda não estão em uso — elas complementam, mas não substituem, os operadores humanos.

admin

Postagens recentes

A BYD apresentou o carro elétrico Denza Z9 GT com uma autonomia recorde de 1.036 km.

Uma atualização recente equipou o cupê elétrico Denza Z9 GT com a mais recente bateria…

1 hora atrás

As autoridades americanas irão proibir a compra de determinados produtos semicondutores chineses para fins governamentais.

As tentativas periódicas de obter concessões para as exportações de semicondutores dos EUA para a…

2 horas atrás

O CEO do Google poderá faturar US$ 692 milhões nos próximos três anos se o serviço de táxi autônomo da Waymo decolar.

Tradicionalmente, os executivos de empresas de capital aberto recebem remuneração não apenas em dinheiro, mas…

2 horas atrás

A Anthropic lançou uma plataforma para vender aplicativos construídos com base em seus modelos, seguindo o modelo da Amazon.

A Anthropic lançou o Anthropic Marketplace, uma plataforma que permitirá que clientes corporativos comprem aplicativos…

3 horas atrás

A Samsung planeja oferecer uma ferramenta de codificação Vibe para usuários de smartphones Galaxy.

Na era do rápido desenvolvimento da inteligência artificial generativa, o desenvolvimento de software exige apenas…

4 horas atrás