O pesquisador de segurança cibernética Johann Rehberger “persuadiu” o ChatGPT a realizar várias operações potencialmente perigosas: ler sua mensagem de e-mail, redigir um resumo dela e publicar essas informações na Internet, de acordo com o The Wall Street Journal. Nas mãos de um atacante, tal ferramenta pode se tornar uma arma formidável.

Fonte da imagem: Franz Bachinger / pixabay.com

Chatbots baseados em algoritmos de inteligência artificial como o ChatGPT, como diz o Sr. Rehberger, “reduzem a barreira de entrada para ataques de todos os tipos. Você não precisa saber codificar. Você não precisa ter um conhecimento profundo de ciência da computação ou hacking.” O método de ataque que ele descreveu não se aplica à maioria das contas ChatGPT – é baseado em um recurso experimental que abre acesso ao Slack, Gmail e outros aplicativos. A empresa responsável pelo ChatGPT, OpenAI, agradeceu ao especialista pelo alerta e disse ter bloqueado a possibilidade de reexecução de tais ataques.

O mecanismo de “injeção imediata” de Rehberger é uma nova classe de ataque cibernético que está surgindo à medida que as empresas implementam tecnologias de IA em seus negócios e produtos de consumo. Técnicas como essas estão mudando a natureza do hacking, e os profissionais de segurança cibernética têm muito mais vulnerabilidades a descobrir antes que a IA se torne verdadeiramente onipresente.

A tecnologia de IA generativa por trás do ChatGPT, que permite criar frases e sentenças inteiras, é algo como uma ferramenta de preenchimento automático na velocidade máxima. O comportamento dos chatbots é limitado pelos desenvolvedores: existem diretrizes elaboradas para impedir que divulguem informações confidenciais ou proíbam que façam declarações ofensivas. Mas existem soluções para contornar essas restrições. Por exemplo, Johann Rehberger pediu a um chatbot para criar um resumo de uma página da web, na qual ele mesmo escreveu em letras grandes: “NOVAS INSTRUÇÕES IMPORTANTES” – e isso intrigou a máquina. Gradualmente, ele forçou o ChatGPT a executar uma variedade de comandos. “É como gritar para o sistema: ‘Vamos lá, faça isso'”, explicou Rehberger. Basicamente, ele forçou a IA a se reprogramar.

A técnica de “injeção de comando” provou ser viável por causa de uma característica importante dos sistemas de IA: eles nem sempre distinguem adequadamente os comandos do sistema da entrada do usuário, explicou o professor da Universidade de Princeton, Arvind Narayanan. Isso significa que os desenvolvedores de IA devem prestar atenção não apenas aos aspectos clássicos da segurança cibernética, mas também levar em consideração novas ameaças de natureza deliberadamente imprevisível.

avalanche

Postagens recentes

O “smartphone de Trump” foi recentemente certificado pela FCC.

As ambições do atual presidente dos EUA, Donald Trump, culminaram, em certo momento, na criação…

37 minutos atrás

A Microsoft tornará o Windows 11 mais estável ao restringir os requisitos de driver.

Este ano, a Microsoft planeja melhorar a estabilidade e o desempenho do Windows 11. Isso…

59 minutos atrás

A Apple nomeou um novo vice-presidente de marketing de IA para melhorar o marketing da Siri.

Já se sabe há muito tempo que as preocupações com a competitividade de seus próprios…

2 horas atrás

Um tribunal holandês também proibiu o chatbot Grok de gerar imagens de pessoas reais nuas.

Ao que tudo indica, por meio de ações de conscientização pública e do sistema judiciário…

3 horas atrás

Apple: O Modo de Bloqueio impediu que hackers invadissem qualquer dispositivo.

A Apple afirmou que, nos quase quatro anos desde a introdução do Modo de Bloqueio,…

3 horas atrás