As modernas tecnologias de inteligência artificial (IA) questionaram a eficácia das ferramentas convencionais de proteção contra bots na Internet. Os testes Captcha, projetados para distinguir humanos de máquinas, não funcionam mais, afirma The Conversation. Hoje, os bots são capazes de resolver esses quebra-cabeças com mais rapidez e precisão do que os humanos.
Fonte da imagem: Google
O Captcha, que apareceu no início dos anos 2000, foi inventado por cientistas da Carnegie Mellon University. Ele foi originalmente desenvolvido para proteger sites de programas automatizados – bots que criavam contas falsas ou, por exemplo, compravam ingressos e distribuíam spam. O princípio de funcionamento era muito simples: uma pessoa tinha que realizar uma tarefa fácil para as pessoas, mas difícil para as máquinas.
A primeira versão do captcha pedia aos usuários que digitassem letras e números. Mais tarde, em 2007, surgiu o ReCaptcha, onde palavras eram adicionadas às tarefas. Em 2014, o Google lançou o ReCaptcha v2, que ainda é o mais popular. Ela sugere marcar a caixa “Não sou um robô” ou escolher as imagens certas, como bicicletas ou semáforos.
No entanto, os sistemas de IA aprenderam a contornar o captcha. As tecnologias de visão computacional e de processamento de linguagem permitem que as máquinas “leiam” facilmente textos distorcidos e reconheçam objetos em imagens. Por exemplo, ferramentas de IA como Google Vision e OpenAI Clip resolvem problemas semelhantes em frações de segundo, enquanto um ser humano leva muito mais tempo. E isso já está se tornando um problema na vida real. Os bots são usados para comprar ingressos para jogos esportivos ou reservas em massa de assentos, privando assim os usuários comuns do acesso à compra de ingressos. Por exemplo, no Reino Unido, programas automatizados reservam vagas em testes de direção em massa e depois as revendem com uma grande margem de lucro.
No entanto, os desenvolvedores estão tentando se adaptar aos novos desafios. Assim, em 2018, o Google lançou o ReCaptcha v3, que não exige mais que os usuários resolvam quebra-cabeças. Em vez disso, o sistema analisa o comportamento no site – movimento do cursor, velocidade de digitação e outros detalhes exclusivos de uma pessoa.
No entanto, descobriu-se que tais métodos não são ideais. Primeiro, levantam questões sobre a privacidade dos dados porque exigem a recolha de informações do utilizador. Por exemplo, alguns sites já começaram a utilizar biometria para verificar os utilizadores, como impressões digitais, comandos de voz ou identificação facial.
Em segundo lugar, mesmo estes sistemas já podem contentar-se com IA avançada e, com o advento dos agentes de IA – programas que executarão tarefas em nome dos utilizadores, a situação pode tornar-se ainda mais complicada. No futuro, os sites precisarão distinguir entre bots “bons” que trabalham em benefício dos usuários e bots “maus” que violam as regras. Uma solução possível poderia ser a introdução de certificados digitais para autenticação, mas estes estão atualmente em desenvolvimento.
Ou seja, a luta entre bots e sistemas de segurança continua. O Captcha, que já foi uma ferramenta confiável, está perdendo sua eficácia e os desenvolvedores terão que encontrar novas formas de proteção que sejam convenientes para os usuários e inacessíveis aos invasores.
Este mês, a Microsoft lançou mais uma atualização para o Windows 11, que se mostrou…
Após seu lançamento no final de setembro de 2025, o aplicativo de geração de vídeo…
A falta de demonstrações públicas dos robôs humanoides Optimus da Tesla nos últimos meses não…
Esta semana, a empresa americana Micron Technology deixou claro que a expansão da produção de…
Processador Intel Core i3-12100F 3.3 GHz / AMD Ryzen 5 5600X 3.7 GHz, 8 GB…
O governo Biden também tentou "Tornar a América Grande Novamente" estabelecendo novas instalações de fabricação…