O ChatGPT foi enganado para completar um CAPTCHA — a internet pode ser inundada com postagens falsas de IA.

A SplxAI, uma empresa de segurança cibernética especializada em testes automatizados de segurança de sistemas de inteligência artificial (IA), demonstrou a capacidade de enganar o ChatGPT para resolver testes de CAPTCHA no modo agente.

Fonte da imagem: SplxAI

CAPTCHA significa “Teste de Turing Público Completamente Automatizado para Distinguir Computadores de Humanos”. É, entre outras coisas, uma maneira de monitorar a atividade de bots online e impedir que eles publiquem mensagens em sites e redes sociais.

A maioria dos usuários da internet está familiarizada com os quebra-cabeças de CAPTCHA e tem opiniões variadas sobre eles. Eles normalmente envolvem escrever uma sequência de letras ou números quase imperceptíveis em uma imagem, organizar peças em uma grade para completar uma imagem ou identificar objetos. Por um lado, os sites usam CAPTCHAs para garantir que todos os seus usuários sejam humanos. Isso evita mensagens de spam de bots. Por outro lado, os testes podem ser irritantes devido à sua complexidade.

Os CAPTCHAs nunca foram um método totalmente infalível para prevenir spam, mas até agora têm feito um bom trabalho protegendo fóruns e seções de comentários de sites contra bots. Pesquisadores da SplxAI descobriram uma maneira de enganar o ChatGPT para que ele passe em um teste de CAPTCHA usando uma técnica chamada “injeção de dicas”. Não se trata apenas do ChatGPT ajudando um humano a resolver um CAPTCHA; em vez disso, o ChatGPT, no modo agente, pode passar no teste de forma independente, como se fosse um humano — algo que não deveria.

O ChatGPT opera de forma diferente no modo agente em comparação ao modo padrão. No modo agente, o ChatGPT recebe uma tarefa, entra no modo de execução e a executa em segundo plano, permitindo que o usuário faça outras coisas. Embora o ChatGPT no modo agente possa navegar em sites como um humano, ele ainda nãoO ChatGPT precisa passar nos testes de CAPTCHA, pois eles são projetados para detectar bots e impedi-los de se envolver em comportamentos que violem os termos de serviço. Os pesquisadores descobriram que o ChatGPT pode ser induzido a acreditar que o CAPTCHA é falso e, então, passar nele.

Os pesquisadores apresentaram ao ChatGPT um teste de CAPTCHA “falso”, criando um diálogo no qual o chatbot concordou em resolvê-lo. Dado o contexto de suas interações anteriores com os pesquisadores, o agente do ChatGPT não percebeu ou reconheceu os sinais de alerta que o levaram a realizar a ação proibida.

Esse processo de injeção de dicas em várias etapas é bem conhecido por hackers e demonstra a vulnerabilidade de modelos de linguagem de IA (LLMs) de larga escala. Embora os pesquisadores tenham descoberto que o ChatGPT teve mais dificuldade em resolver CAPTCHAs baseados em imagens, ele ainda passou nesses testes. As consequências podem ser bastante graves, já que o ChatGPT é tão difundido que, se cair em mãos erradas, pode ser usado por spammers e golpistas para inundar seções de comentários com mensagens falsas e contornar restrições em sites exclusivos para humanos.

admin

Postagens recentes

O Google Docs receberá um design Material 3 Expressive e novos filtros de pesquisa.

O aplicativo móvel Google Docs para Android receberá em breve uma atualização visual significativa que…

1 hora atrás

O assistente de voz Gemini Live AI ajudará você a jogar jogos Android.

O Google anunciou que o Gemini Live, o assistente de voz com inteligência artificial integrado…

2 horas atrás

Hollow Knight: Silksong recebeu seu segundo patch pós-lançamento, e os desenvolvedores já delinearam um plano para mais melhorias.

O estúdio australiano Team Cherry anunciou o segundo patch pós-lançamento para seu Metroidvania Hollow Knight:…

4 horas atrás