O pesquisador de segurança cibernética Johann Rehberger “persuadiu” o ChatGPT a realizar várias operações potencialmente perigosas: ler sua mensagem de e-mail, redigir um resumo dela e publicar essas informações na Internet, de acordo com o The Wall Street Journal. Nas mãos de um atacante, tal ferramenta pode se tornar uma arma formidável.

Fonte da imagem: Franz Bachinger / pixabay.com

Chatbots baseados em algoritmos de inteligência artificial como o ChatGPT, como diz o Sr. Rehberger, “reduzem a barreira de entrada para ataques de todos os tipos. Você não precisa saber codificar. Você não precisa ter um conhecimento profundo de ciência da computação ou hacking.” O método de ataque que ele descreveu não se aplica à maioria das contas ChatGPT – é baseado em um recurso experimental que abre acesso ao Slack, Gmail e outros aplicativos. A empresa responsável pelo ChatGPT, OpenAI, agradeceu ao especialista pelo alerta e disse ter bloqueado a possibilidade de reexecução de tais ataques.

O mecanismo de “injeção imediata” de Rehberger é uma nova classe de ataque cibernético que está surgindo à medida que as empresas implementam tecnologias de IA em seus negócios e produtos de consumo. Técnicas como essas estão mudando a natureza do hacking, e os profissionais de segurança cibernética têm muito mais vulnerabilidades a descobrir antes que a IA se torne verdadeiramente onipresente.

A tecnologia de IA generativa por trás do ChatGPT, que permite criar frases e sentenças inteiras, é algo como uma ferramenta de preenchimento automático na velocidade máxima. O comportamento dos chatbots é limitado pelos desenvolvedores: existem diretrizes elaboradas para impedir que divulguem informações confidenciais ou proíbam que façam declarações ofensivas. Mas existem soluções para contornar essas restrições. Por exemplo, Johann Rehberger pediu a um chatbot para criar um resumo de uma página da web, na qual ele mesmo escreveu em letras grandes: “NOVAS INSTRUÇÕES IMPORTANTES” – e isso intrigou a máquina. Gradualmente, ele forçou o ChatGPT a executar uma variedade de comandos. “É como gritar para o sistema: ‘Vamos lá, faça isso'”, explicou Rehberger. Basicamente, ele forçou a IA a se reprogramar.

A técnica de “injeção de comando” provou ser viável por causa de uma característica importante dos sistemas de IA: eles nem sempre distinguem adequadamente os comandos do sistema da entrada do usuário, explicou o professor da Universidade de Princeton, Arvind Narayanan. Isso significa que os desenvolvedores de IA devem prestar atenção não apenas aos aspectos clássicos da segurança cibernética, mas também levar em consideração novas ameaças de natureza deliberadamente imprevisível.

avalanche

Postagens recentes

Agentes de IA foram treinados para rastrear e corrigir erros de impressão 3D em tempo real.

Pesquisadores da Universidade Carnegie Mellon (EUA) desenvolveram um sistema que utiliza diversos modelos de linguagem…

41 minutos atrás

A Asus lançará um monitor ROG Strix XG27UCG Gen2 de 27 polegadas com modo duplo: 4K a 162Hz ou 1080p a 485Hz.

A Asus está se preparando para lançar uma versão atualizada do monitor ROG Strix XG27UCG…

41 minutos atrás

O sucesso estrondoso de Battlefield 6 garante à Electronic Arts um trimestre recorde.

A Electronic Arts, editora e desenvolvedora americana, divulgou seus resultados para o terceiro trimestre do…

41 minutos atrás

Pesquisadores alertam que o Wi-Fi pode se tornar um sistema invisível de vigilância em massa.

Cientistas do Instituto de Tecnologia de Karlsruhe (KIT) descobriram uma maneira de identificar pessoas estudando…

51 minutos atrás

A Nintendo anunciou sua primeira apresentação Nintendo Direct de 2026: Partner Showcase – onde e quando assistir.

Após uma série de rumores e revelações de fontes internas, a Nintendo, fornecedora japonesa de…

1 hora atrás