Foi descoberta uma vulnerabilidade no ChatGPT que permite que um invasor em potencial insira informações falsas sobre um usuário na memória de longo prazo do chatbot usando solicitações maliciosas – isso abre o acesso aos dados pessoais da vítima. A OpenAI inicialmente considerou a descoberta, feita pelo especialista em segurança cibernética Johann Rehberger, como uma ameaça menor e rapidamente encerrou a investigação.

Fonte da imagem: Growtika/unsplash.com

Ao explorar a vulnerabilidade, o invasor obtém acesso à memória de longo prazo da correspondência – a OpenAI começou a testar essa função em fevereiro e a divulgou ao público em setembro. A memória do ChatGPT armazena informações importantes das conversas com o usuário e as utiliza como contexto em todas as conversas futuras. O grande modelo de linguagem conhece informações do usuário como idade, sexo, crenças e muito mais, portanto, alguns dados não precisam ser inseridos em cada correspondência subsequente.

Reiberger, no entanto, descobriu que usando injeção indireta dentro de uma solicitação, é possível criar entradas artificiais na memória do ChatGPT – tal injeção poderia ser e-mails, postagens de blogs e documentos eletrônicos. Um pesquisador demonstrou como o ChatGPT pode ser levado a acreditar que o usuário alvo tem 102 anos, vive na Matrix e acredita que a Terra é plana. Em todas as conversas subsequentes com o usuário, a IA se baseou nesses dados falsos. Falsas memórias foram implantadas usando arquivos no armazenamento do Google Drive e Microsoft OneDrive, baixando arquivos e navegando em sites, incluindo o Bing.

Em maio, o especialista anunciou sua descoberta à OpenAI, mas a empresa fechou o ticket no mesmo mês. Um mês depois, Reiberger apresentou um segundo recurso, ao qual anexou um modelo de hacking – forçava o aplicativo ChatGPT para macOS a enviar toda a correspondência entre o usuário e o chatbot para um servidor escolhido pelo potencial invasor. Para isso, bastou dizer à IA para abrir um link por meio do qual foi baixada uma imagem maliciosa – após o qual o hacker recebeu todos os logs de diálogo entre uma pessoa e uma máquina. A extração de dados continuou mesmo quando uma nova conversa foi iniciada.

Posteriormente, a OpenAI corrigiu parcialmente a vulnerabilidade, bloqueando a capacidade de explorar a função de memória como um vetor para extração de dados. No entanto, de acordo com Reiberger, ainda permanece a capacidade de fazer isso usando injeções como parte de solicitações maliciosas. Os usuários do ChatGPT são aconselhados a marcar o horário das sessões durante as quais novos materiais são adicionados à memória da IA ​​e também verificar regularmente a memória em busca de injeções de fontes não confiáveis. OpenAI preparou instruções para gerenciar a função de memória.

avalanche

Postagens recentes

A Alphabet está em negociações com a Marvell para desenvolver dois chips de IA para inferência.

A Alphabet iniciou negociações com a Marvell para desenvolver chips especializados capazes de executar modelos…

2 horas atrás

A Blue Origin reutilizou, pela primeira vez, o primeiro estágio de seu gigantesco foguete New Glen.

A empresa aeroespacial de Jeff Bezos, a Blue Origin, deu um grande passo rumo à…

7 horas atrás

A Microsoft adiciona o Agente de IA à barra de tarefas do Windows 11.

A Microsoft confirmou que não tem planos de abandonar os agentes de IA no Windows…

8 horas atrás

AAEON lança o sistema CEXD-INTRBL baseado em Intel Panther Lake para desenvolvimento de robôs com IA.

A AAEON apresentou o CEXD-INTRBL, um computador industrial de formato compacto projetado para o desenvolvimento…

9 horas atrás

A App Store está prosperando novamente — e a IA pode ter contribuído para isso.

Muitos acreditavam que a inteligência artificial acabaria com os aplicativos móveis. No entanto, o desenvolvimento…

9 horas atrás