Chatbots de IA de uso geral e modelos de IA especializados para biologia facilitam o desenvolvimento de toxinas, vírus e patógenos pandêmicos e, consequentemente, de novas armas biológicas. A gravidade da ameaça foi confirmada por cientistas e pesquisadores entrevistados pela revista Nature. No entanto, suas opiniões divergem: alguns defendem a restrição do acesso a programas e dados de treinamento, enquanto outros advogam pela imposição de uma barreira na etapa de síntese do DNA. Alguns pesquisadores esperam que essa mesma IA ajude a criar antídotos e medicamentos.
Fonte da imagem: Sangharsh Lohakare / unsplash.com
Uma ferramenta de IA desenvolvida em 2024 por cientistas chineses para projetar conotoxinas — proteínas do veneno de caracóis-cone capazes de bloquear canais iônicos no sistema nervoso e matar humanos — foi um alerta. Em uma carta para um grupo fechado de discussão sobre IA e biotecnologia, vista pela Nature, um alto funcionário do governo dos EUA classificou o trabalho como um potencial risco à biossegurança, principalmente porque a ferramenta é baseada em um modelo de linguagem de proteínas de código aberto desenvolvido por cientistas americanos. O coautor Weiwei Xue, da Universidade de Chongqing, argumenta que o trabalho visa à descoberta de medicamentos e que a transição dos cálculos para a criação de moléculas reais exige conhecimento especializado e equipamentos de ponta.
“Teoricamente — e é isso que me tira o sono — agora é possível desenvolver toxinas comparáveis à ricina ou a outros agentes altamente letais que seriam praticamente indetectáveis”, afirma Martin Pacesa, biólogo estrutural da Universidade de Zurique (UZH). Um relatório de 2025 das Academias Nacionais de Ciências, Engenharia e Medicina dos EUA (NASEM) acrescenta uma perspectiva preocupante: o surgimento de patógenos pandêmicos é dificultado pela falta de dados de alta qualidade e pelas dificuldades na produção em laboratório. Mas especialistas reconhecem que toxinas projetadas já estão ao nosso alcance, e Timothy Jenkins, da Universidade Técnica da Dinamarca (DTU), alerta que tal toxina seria difícil de detectar e mais propensa a ser usada contra um indivíduo específico.
Fonte da imagem: ChatGPT
Muitos cientistas acreditam que a principal proteção ocorre na etapa de síntese do DNA: as empresas de síntese de DNA submetem cada pedido a um software de triagem que busca vestígios de toxinas conhecidas e proteínas patogênicas. Um estudo realizado por pesquisadores da Microsoft, liderado por Eric Horvitz e publicado em 2025, demonstrou que essa verificação pode ser contornada usando inteligência artificial (IA). A equipe gerou 76.000 homólogos sintéticos — moléculas com a mesma função perigosa de toxinas e proteínas virais conhecidas, mas com uma sequência de DNA diferente, desconhecida para os bancos de dados de triagem. Cerca de um quarto das melhores amostras passou despercebido pelas quatro empresas de síntese de DNA participantes do experimento, mas, após uma atualização do software, a taxa caiu para aproximadamente 3%. A triagem de DNA permanece voluntária por enquanto: uma ordem executiva de 2025 dos EUA pressiona os financiadores americanos a adotarem regulamentações obrigatórias, seguida pela União Europeia (UE), Reino Unido e Nova Zelândia, mas a maioria dos países não tem exigências. Na China (que responde por mais de 30% dos pedidos globais de síntese de DNA), a triagem é recomendada pelo governo, mas ainda não foi tornada obrigatória.
As salvaguardas inerentes aos próprios modelos de IA também estão sendo contornadas. Em um estudo da SecureBio liderado por Seth Donoughe, quase 90% dos participantes conseguiram extrair informações biológicas de alto risco de modelos de linguagem de uso geral em larga escala (LLMs). O bioengenheiro Le Cong, de Stanford, usou um agente de IA de uso geral para enganar o modelo de linguagem genômica Evo 2, fazendo-o gerar novas versões de proteínas do SARS-CoV-2 e do HIV-1, mesmo sem ter sido treinado com dados de vírus que infectam humanos. O New York Times já havia relatado isso.Foi relatado que um homem preso na Índia sob a acusação de estar se preparando para produzir ricina para um ataque terrorista pediu conselhos ao ChatGPT.
Fonte da imagem: ChatGPT
Parte da indústria está caminhando para o acesso restrito. Em abril, a OpenAI anunciou um sistema de IA para biologia, o GPT-Rosalind: ele estará disponível apenas para pesquisadores e organizações selecionados, e os usuários que receberem acesso serão monitorados quanto a sinais de desenvolvimento de armas biológicas. A Coalizão para Inovações em Preparação para Epidemias (CEPI) está desenvolvendo uma “plataforma de preparação para pandemias” em Oslo, que provavelmente estará disponível apenas para usuários selecionados. O relatório de 2025 da RAND Corporation avaliou 57 ferramentas de IA biológica, e 23% foram consideradas de alto risco. David Baker, da Universidade de Washington (UW), vencedor do Prêmio Nobel de Química de 2024 por seu trabalho em design de proteínas e previsão de estrutura terciária, é cauteloso: “Sempre presumimos que os benefícios para o mundo superam em muito os riscos. Mas, à medida que as capacidades aumentam, é importante manter essa questão sob revisão.”
A área de defesa não está ficando para trás. Jenkins está colaborando com a OTAN para desenvolver um método de espectrometria de massa para identificar proteínas sintéticas em amostras suspeitas, e empresas privadas entraram no mercado de biodefesa: a Red Queen Bio, em São Francisco, e a Valthos, em Nova York, captaram US$ 15 milhões e US$ 30 milhões, respectivamente. Vale ressaltar que a IA na biotecnologia é uma faca de dois gumes: os mesmos modelos criam tanto ameaças quanto proteção, e não está claro quem prevalecerá. “Muitas áreas desse tema me parecem, simultaneamente, altamente incertas e extremamente urgentes”, afirma Tessa Alexanian, da Iniciativa Internacional de Biossegurança para a Ciência (IBBIS).
A AMD reportou uma vulnerabilidade (CVE-2025-54518; AMD-SB-7052) identificada no nível CVSS 7.3 no cache de…
A AMD expandiu seu portfólio de processadores Ryzen Pro 9000 para PCs empresariais e estações…
Cedo ou tarde, as ambições dos bilionários se tornam limitadas na Terra, então eles se…
Boris Cherny, criador do Claude Code, disse que executa cerca de dois mil agentes de…
A Framework, fabricante de laptops modulares, trouxe boas e más notícias para seu público. A…
Cientistas chineses testaram com sucesso o núcleo óptico do futuro observatório espacial de ondas gravitacionais…