Neste verão, ficou claro que o chamado captcha (ou captcha), em sua forma mais simples, não é mais um obstáculo para que agentes de IA realizem ações que lhes permitam se passar por humanos. Um novo estudo mostrou que a IA é capaz de responder a pesquisas de opinião pública online, fingindo ser um humano de forma plausível.

Fonte da imagem: Unsplash, Christin Hume
A ferramenta de IA criada por Sean Westwood, chefe do Laboratório de Pesquisa de Polarização, alcançou uma taxa de sucesso de 99,8% no experimento, permitindo que ela se passasse por um respondente real em pesquisas de opinião pública online com precisão semelhante. Escrita em Python, a ferramenta de IA é independente de plataforma, permitindo que seja integrada à maioria dos modelos de linguagem de grande escala mais populares de diversos desenvolvedores.
O autor utilizou o modelo o4-mini da OpenAI na maior parte do experimento, mas a ferramenta também utilizou outros modelos de linguagem em alguns testes. Ela é configurada para que, antes de iniciar a pesquisa sociológica, o usuário insira uma breve descrição da pessoa cujas respostas serão imitadas. O enunciado da tarefa não deve ultrapassar 500 palavras.
A ferramenta foi treinada para contornar perguntas de segurança e armadilhas que os autores das pesquisas normalmente implementam para identificar usuários desatentos e bots. Ela se mostrou imune até mesmo a filtros específicos, como tarefas relativamente fáceis para a IA resolver, mas que estão além da capacidade da maioria dos respondentes reais. O programa simula o tempo gasto na leitura de perguntas com base no nível de escolaridade do respondente simulado, consegue digitar lentamente em campos abertos e pode cometer erros e corrigi-los quando possível. Uma ferramenta para burlar o CAPTCHA poderá ser integrada ao agente futuramente.
De acordo com o autor do estudo, a falsificação de dados de pesquisas de opinião públicaCom a disponibilidade dessas ferramentas, as opiniões se tornam um instrumento perigoso de manipulação. Um estudo de pesquisas realizadas antes da eleição presidencial dos EUA de 2024 sugere que de 10 a 52 respostas fraudulentas são frequentemente suficientes para alterar o resultado, mesmo em pesquisas nacionais.
Esses abusos podem ser combatidos com condições de pesquisa mais controladas. Por outro lado, medidas de segurança aprimoradas, como identificação baseada em documentos ou biometria, podem complicar as pesquisas e reduzir a sinceridade dos respondentes. Claramente, com o avanço da IA, a confiabilidade dos resultados de pesquisas online precisará ser abordada com maior cautela.
