O pesquisador de segurança cibernética Johann Rehberger “persuadiu” o ChatGPT a realizar várias operações potencialmente perigosas: ler sua mensagem de e-mail, redigir um resumo dela e publicar essas informações na Internet, de acordo com o The Wall Street Journal. Nas mãos de um atacante, tal ferramenta pode se tornar uma arma formidável.

Fonte da imagem: Franz Bachinger / pixabay.com

Chatbots baseados em algoritmos de inteligência artificial como o ChatGPT, como diz o Sr. Rehberger, “reduzem a barreira de entrada para ataques de todos os tipos. Você não precisa saber codificar. Você não precisa ter um conhecimento profundo de ciência da computação ou hacking.” O método de ataque que ele descreveu não se aplica à maioria das contas ChatGPT – é baseado em um recurso experimental que abre acesso ao Slack, Gmail e outros aplicativos. A empresa responsável pelo ChatGPT, OpenAI, agradeceu ao especialista pelo alerta e disse ter bloqueado a possibilidade de reexecução de tais ataques.

O mecanismo de “injeção imediata” de Rehberger é uma nova classe de ataque cibernético que está surgindo à medida que as empresas implementam tecnologias de IA em seus negócios e produtos de consumo. Técnicas como essas estão mudando a natureza do hacking, e os profissionais de segurança cibernética têm muito mais vulnerabilidades a descobrir antes que a IA se torne verdadeiramente onipresente.

A tecnologia de IA generativa por trás do ChatGPT, que permite criar frases e sentenças inteiras, é algo como uma ferramenta de preenchimento automático na velocidade máxima. O comportamento dos chatbots é limitado pelos desenvolvedores: existem diretrizes elaboradas para impedir que divulguem informações confidenciais ou proíbam que façam declarações ofensivas. Mas existem soluções para contornar essas restrições. Por exemplo, Johann Rehberger pediu a um chatbot para criar um resumo de uma página da web, na qual ele mesmo escreveu em letras grandes: “NOVAS INSTRUÇÕES IMPORTANTES” – e isso intrigou a máquina. Gradualmente, ele forçou o ChatGPT a executar uma variedade de comandos. “É como gritar para o sistema: ‘Vamos lá, faça isso'”, explicou Rehberger. Basicamente, ele forçou a IA a se reprogramar.

A técnica de “injeção de comando” provou ser viável por causa de uma característica importante dos sistemas de IA: eles nem sempre distinguem adequadamente os comandos do sistema da entrada do usuário, explicou o professor da Universidade de Princeton, Arvind Narayanan. Isso significa que os desenvolvedores de IA devem prestar atenção não apenas aos aspectos clássicos da segurança cibernética, mas também levar em consideração novas ameaças de natureza deliberadamente imprevisível.

avalanche

Postagens recentes

Slay the Spire 2 – Adeus Tempo Livre! Prévia / Jogos

Passei mais de quatrocentas horas jogando o primeiro Slay the Spire, e que horas maravilhosas…

3 horas atrás

A nova temporada de Warface, “Steel Quarters”, promete: brutalidade em todas as pistas de patinação!

Warface vem encantando fãs de ação online há quase quatorze anos, e a temporada "Steel…

5 horas atrás

O SoftBank tomou emprestado US$ 40 bilhões por um ano para investir na OpenAI.

O SoftBank Group, holding multinacional japonesa e um dos maiores investidores mundiais no setor de…

6 horas atrás

A Meta construirá sete usinas termelétricas a gás com capacidade total de 5,2 GW para acompanhar a corrida da IA.

Segundo a Bloomberg, a Meta✴ financiará a construção de sete novas usinas termelétricas a gás…

6 horas atrás

“Mandem-me para o futuro para que eu possa jogar este jogo”: Novas imagens de jogabilidade do RPG de ação no estilo Mass Effect, Exodus, deixam os fãs empolgados.

A Archetype Entertainment, veterana da BioWare, divulgou novas imagens de jogabilidade de Exodus, seu ambicioso…

6 horas atrás

Uma vulnerabilidade zero-day perigosa foi descoberta no Telegram, mas os detalhes estão sendo mantidos em segredo.

Michael Deplante, especialista em segurança da informação associado à Zero Day Initiative da TrendAI, descobriu…

6 horas atrás