Preocupados com a duvidosa colaboração entre a OpenAI e o Departamento de Defesa dos EUA, cidadãos americanos formaram um movimento para “cancelar o ChatGPT”. O movimento visa apoiar a Anthropic, empresa que entrou para a lista negra do Pentágono por proibir o uso de seus modelos de IA para determinados fins.
Fonte da imagem: Levart_Photographer / unsplash.com
O conflito entre a Anthropic e o Pentágono eclodiu devido a duas “linhas vermelhas” que a desenvolvedora de IA se recusou a cruzar. A empresa não queria que seus modelos tomassem decisões independentes sobre o uso de armas contra pessoas, nem que fossem usados para monitorar cidadãos americanos. Como resultado, o acordo com a Anthropic foi rescindido e a empresa foi incluída em uma lista negra, proibindo todos os contratados da área de defesa de trabalharem com ela.
A OpenAI assumiu o lugar da Anthropic nos sistemas do Pentágono. O CEO da empresa, Sam Altman, prometeu que seus modelos não seriam usados para vigilância em massa, mas um porta-voz do governo americano refutou essa afirmação, declarando que eles funcionariam em “todos os cenários legais”. O Ato Patriota, aprovado após a tragédia de 11 de setembro de 2001, permite especificamente a coleta de metadados de redes de comunicação, embora alguns aspectos tenham sido restringidos nos últimos anos.
Fonte da imagem: Dima Solomin / unsplash.com
Essa mudança provocou uma reação extremamente negativa em comunidades online, com pessoas que anteriormente haviam declarado que deixariam de usar o ChatGPT agora recebendo avaliações positivas. Vale ressaltar que nem todos os principais desenvolvedores de IA se recusam a ultrapassar as “linhas vermelhas” da Anthropic. O Google havia incluído tal proibição em suas políticas internas, mas a empresa agora a revogou. A Microsoft não se opõe ao uso de armas de IA, desde que um humano as dispare. A Amazon se limita a uma linguagem vaga sobre o “uso responsável” da IA.
Posteriormente, Sam Altman reiterou que o Departamento de Defesa dos EUA acatará as “linhas vermelhas” declaradas pela empresa em relação a armas autônomas e vigilância em massa de cidadãos americanos, mas não esclareceu como essas garantias seriam implementadas. O chefe da OpenAI citou a legislação americana vigente, que, em particular, permite a vigilância de cidadãos não americanos e, para esses fins, autoriza a coleta indireta ou aleatória de dados sobre cidadãos americanos.
Aos olhos do público, no entanto, a OpenAI deixou a interpretação do que era considerado legal a cargo do Pentágono, enquanto a Anthropic optou por manter o controle total sobre o uso de sua tecnologia. Como resultado, o aplicativo Claude AI da Anthropic tornou-se um dos mais vendidos nas lojas de aplicativos Android e iOS; ele também foi lançado para Windows 11.
A NVIDIA anunciou sua intenção de trabalhar com parceiros para desenvolver redes móveis 6G utilizando…
Até recentemente, acreditava-se que países terceiros desempenhavam um papel fundamental no contrabando de aceleradores de…
A Take-Two Interactive, editora da franquia, divulga regularmente os números de vendas dos jogos GTA,…
A crise no mercado de memória causada pelo boom da IA está afetando muitos setores…
A Lenovo apresentou o tablet gamer Legion Tab Gen 5 na MWC 2026. Ele ostenta…
A Qualcomm anunciou a plataforma Dragonwing NPro A8 Elite, projetada para a criação de soluções…