Funcionários do Google e da OpenAI publicaram uma carta aberta intitulada “Não Seremos Divididos”, que obteve quase 900 assinaturas, exigindo restrições mais rigorosas ao uso de inteligência artificial pelas forças armadas. As tensões no setor de tecnologia aumentaram nos últimos dias após o Departamento de Defesa dos EUA ter incluído a tecnologia da Anthropic em sua lista negra.
Cerca de 100 funcionários da OpenAI e cerca de 800 funcionários do Google assinaram a carta. O documento critica as ações do Departamento de Defesa dos EUA contra a Anthropic, que se recusou a permitir que sua tecnologia fosse usada para vigilância em massa ou para a criação de armas totalmente autônomas.
“Eles estão tentando dividir cada empresa, na esperança de que a outra ceda”, diz a carta. “Essa estratégia só funciona se nenhum de nós souber a posição da outra. Esta carta visa construir entendimento e solidariedade diante dessa pressão do Departamento de Defesa.”
As tensões no setor de tecnologia vêm aumentando há vários meses. Os trabalhadores do setor exigem maior transparência sobre o trabalho de seus empregadores com o governo, principalmente em relação a contratos de computação em nuvem e inteligência artificial. Para o Google, a mais recente onda de críticas surge das negociações supostamente realizadas pela empresa com o Pentágono para implantar seu modelo de IA Gemini em um sistema militar classificado.

Fonte da imagem: unsplash.com
Na sexta-feira, o grupo No Tech For Apartheid, que há muito critica os acordos de tecnologia em nuvem entre o governo dos EUA e gigantes da tecnologia, publicou uma declaração conjunta intitulada “Amazon, Google e Microsoft devem rejeitar as exigências do Pentágono”. Segundo o grupo, essas empresas devem rejeitar as condições do Departamento de Defesa (DoD) que permitiriam vigilância em massa ou outros usos indevidos de IA.
O grupo mirou diretamente no Google, citando um possível acordo com o Pentágono que poderia ser semelhante ao acordo que permite ao DoD implantar o Grok, da xAI, “em ambientes classificados — até onde sabemos, sem quaisquer restrições”. Embora a Anthropic e a OpenAI tenham se manifestado publicamente sobre suas negociações com o DoD, a Alphabet, empresa controladora do Google, permaneceu em silêncio.
Centenas de funcionários de empresas de tecnologia assinaram uma carta aberta em apoio à Anthropic, pedindo ao DoD que revogue sua designação como “risco à cadeia de suprimentos”. A lista de signatários inclui dezenas de funcionários da OpenAI, bem como funcionários de empresas como Salesforce, Databricks, IBM e Cursor. A carta pede ao Congresso que “examine a adequação do uso desses poderes de emergência contra uma empresa de tecnologia dos EUA”.
Preocupações semelhantes foram levantadas dentro do Google na semana passada, quando mais de 100 funcionários que trabalham com tecnologias de inteligência artificial entraram em contato com a gerência, expressando preocupações sobre a colaboração da empresa com o Departamento de Defesa. Segundo relatos, eles…Foi solicitado que desenhasse as mesmas “linhas vermelhas” que a Anthropic havia feito anteriormente.

Fonte da imagem: Axios
O cientista-chefe do Google, Jeff Dean, acredita que “a vigilância em massa viola a Quarta Emenda e tem um efeito inibidor sobre a liberdade de expressão” e que os sistemas de vigilância são “suscetíveis a abusos para fins políticos ou discriminatórios”.
Aparentemente, nem todos os gestores do Google concordam. Em 2018, a empresa vivenciou uma verdadeira revolta de milhares de funcionários em relação ao Projeto Maven, um programa do Pentágono que utilizava inteligência artificial para analisar imagens de drones. Posteriormente, a empresa desenvolveu seus “Princípios de IA” para orientar o uso dessas tecnologias.
Ainda assim, a situação continua sendo motivo de preocupação. Em 2024, o Google demitiu mais de 50 funcionários após protestos contra o Projeto Nimbus, um contrato conjunto de US$ 1,2 bilhão com a Amazon para trabalhos com o governo israelense. Embora os executivos alegassem que o contrato não violava nenhum dos Princípios de IA, documentos e relatórios mostram que o acordo permitia o fornecimento de ferramentas de IA para Israel, incluindo categorização de imagens, rastreamento de objetos e localização para fabricantes de armas estatais.
No início do ano passado, o Google teria revisado seus princípios de IA e removido a linguagem que proibia explicitamente a “instrumentalização” ou a “tecnologia de vigilância”.