Bots com inteligência artificial já representam uma parcela significativa do tráfego da web, segundo reportagem da Wired, citando dados da Akamai. O relatório detalha como o bloqueio de dados de bots em sites e as ações sofisticadas desses bots estão atingindo proporções de corrida armamentista.
Fonte da imagem: Igor Omilaev / unsplash.com
“Esta não é apenas uma questão de direitos autorais — um novo tipo de visitante da internet surgiu”, observam especialistas. Proprietários de grandes sites estão buscando restringir o acesso a materiais que bots podem coletar e transmitir para treinamento de IA. Em outros casos, bots de IA acessam informações da internet em tempo real e as utilizam para aprimorar seus próprios resultados — exibindo preços atuais de produtos, programação de filmes ou breves resumos das últimas notícias.
O tráfego de bots que coletam dados para treinamento de IA tem aumentado constantemente desde julho do ano passado. Nos primeiros três meses de 2025, em média, uma em cada 200 visitas a sites era de um bot, e no quarto trimestre, esse número subiu para uma em cada 50 visitas. Mais de 13% dos bots ignoram as instruções dos arquivos robots.txt, que especificam quais seções de um site devem ser evitadas. Do segundo ao quarto trimestre, esse comportamento aumentou 400%; no entanto, durante o mesmo período, os administradores também aumentaram suas tentativas de bloquear bots em 336%. Alguns bots se disfarçam — seu tráfego parece originar-se de um navegador comum e suas solicitações imitam o comportamento humano normal em sites.
Serviços sob demanda também surgiram nessa área. A startup TollBit oferece ferramentas que permitem que desenvolvedores de IA legítimos firmem contratos com editores e paguem por conteúdo em sites. A conhecida empresa Cloudflare oferece ferramentas para bloquear bots operados por desenvolvedores inescrupulosos. No entanto, a Bright Data, uma empresa de coleta de dados, insiste que seus bots coletam apenas informações publicamente disponíveis. Seus colegas da ScrapingBee enfatizaram:Essas ferramentas se baseiam no princípio de uma internet aberta, acessível tanto a humanos quanto a máquinas. A Oxylabs, empresa especializada em tarefas semelhantes, também anunciou seu trabalho com dados disponíveis publicamente. Existem inúmeras razões legítimas para coletar material de sites, incluindo para fins de segurança cibernética e jornalismo investigativo. No entanto, a Oxylabs acrescentou que as ferramentas de segurança de sites não diferenciam entre os casos de uso — seja tráfego malicioso ou acesso automatizado legítimo.
Hoje, mais de 40 empresas oferecem serviços de bots para coleta de dados para treinamento de IA; paralelamente, mecanismos de busca com IA e agentes de IA como o OpenClaw estão ganhando força. Algumas empresas já estão tentando ajudar outras empresas a encontrar conteúdo para agentes de IA, e ferramentas de otimização de conteúdo para IA também surgiram. Elas preveem o surgimento de “um canal de marketing completo no qual busca, publicidade, mídia e comércio se fundem”.
Pesquisadores da Universidade Carnegie Mellon (EUA) desenvolveram um sistema que utiliza diversos modelos de linguagem…
A Asus está se preparando para lançar uma versão atualizada do monitor ROG Strix XG27UCG…
A Electronic Arts, editora e desenvolvedora americana, divulgou seus resultados para o terceiro trimestre do…
A Associação da Indústria de Câmeras e Vídeo (CIPA) divulgou dados sobre os volumes de…
Cientistas do Instituto de Tecnologia de Karlsruhe (KIT) descobriram uma maneira de identificar pessoas estudando…
Após uma série de rumores e revelações de fontes internas, a Nintendo, fornecedora japonesa de…