As modernas tecnologias de inteligência artificial (IA) questionaram a eficácia das ferramentas convencionais de proteção contra bots na Internet. Os testes Captcha, projetados para distinguir humanos de máquinas, não funcionam mais, afirma The Conversation. Hoje, os bots são capazes de resolver esses quebra-cabeças com mais rapidez e precisão do que os humanos.

Fonte da imagem: Google

O Captcha, que apareceu no início dos anos 2000, foi inventado por cientistas da Carnegie Mellon University. Ele foi originalmente desenvolvido para proteger sites de programas automatizados – bots que criavam contas falsas ou, por exemplo, compravam ingressos e distribuíam spam. O princípio de funcionamento era muito simples: uma pessoa tinha que realizar uma tarefa fácil para as pessoas, mas difícil para as máquinas.

A primeira versão do captcha pedia aos usuários que digitassem letras e números. Mais tarde, em 2007, surgiu o ReCaptcha, onde palavras eram adicionadas às tarefas. Em 2014, o Google lançou o ReCaptcha v2, que ainda é o mais popular. Ela sugere marcar a caixa “Não sou um robô” ou escolher as imagens certas, como bicicletas ou semáforos.

No entanto, os sistemas de IA aprenderam a contornar o captcha. As tecnologias de visão computacional e de processamento de linguagem permitem que as máquinas “leiam” facilmente textos distorcidos e reconheçam objetos em imagens. Por exemplo, ferramentas de IA como Google Vision e OpenAI Clip resolvem problemas semelhantes em frações de segundo, enquanto um ser humano leva muito mais tempo. E isso já está se tornando um problema na vida real. Os bots são usados ​​para comprar ingressos para jogos esportivos ou reservas em massa de assentos, privando assim os usuários comuns do acesso à compra de ingressos. Por exemplo, no Reino Unido, programas automatizados reservam vagas em testes de direção em massa e depois as revendem com uma grande margem de lucro.

No entanto, os desenvolvedores estão tentando se adaptar aos novos desafios. Assim, em 2018, o Google lançou o ReCaptcha v3, que não exige mais que os usuários resolvam quebra-cabeças. Em vez disso, o sistema analisa o comportamento no site – movimento do cursor, velocidade de digitação e outros detalhes exclusivos de uma pessoa.

No entanto, descobriu-se que tais métodos não são ideais. Primeiro, levantam questões sobre a privacidade dos dados porque exigem a recolha de informações do utilizador. Por exemplo, alguns sites já começaram a utilizar biometria para verificar os utilizadores, como impressões digitais, comandos de voz ou identificação facial.

Em segundo lugar, mesmo estes sistemas já podem contentar-se com IA avançada e, com o advento dos agentes de IA – programas que executarão tarefas em nome dos utilizadores, a situação pode tornar-se ainda mais complicada. No futuro, os sites precisarão distinguir entre bots “bons” que trabalham em benefício dos usuários e bots “maus” que violam as regras. Uma solução possível poderia ser a introdução de certificados digitais para autenticação, mas estes estão atualmente em desenvolvimento.

Ou seja, a luta entre bots e sistemas de segurança continua. O Captcha, que já foi uma ferramenta confiável, está perdendo sua eficácia e os desenvolvedores terão que encontrar novas formas de proteção que sejam convenientes para os usuários e inacessíveis aos invasores.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *