Preocupados com a duvidosa colaboração entre a OpenAI e o Departamento de Defesa dos EUA, cidadãos americanos formaram um movimento para “cancelar o ChatGPT”. O movimento visa apoiar a Anthropic, empresa que entrou para a lista negra do Pentágono por proibir o uso de seus modelos de IA para determinados fins.
Fonte da imagem: Levart_Photographer / unsplash.com
O conflito entre a Anthropic e o Pentágono eclodiu devido a duas “linhas vermelhas” que a desenvolvedora de IA se recusou a cruzar. A empresa não queria que seus modelos tomassem decisões independentes sobre o uso de armas contra pessoas, nem que fossem usados para monitorar cidadãos americanos. Como resultado, o acordo com a Anthropic foi rescindido e a empresa foi incluída em uma lista negra, proibindo todos os contratados da área de defesa de trabalharem com ela.
A OpenAI assumiu o lugar da Anthropic nos sistemas do Pentágono. O CEO da empresa, Sam Altman, prometeu que seus modelos não seriam usados para vigilância em massa, mas um porta-voz do governo americano refutou essa afirmação, declarando que eles funcionariam em “todos os cenários legais”. O Ato Patriota, aprovado após a tragédia de 11 de setembro de 2001, permite especificamente a coleta de metadados de redes de comunicação, embora alguns aspectos tenham sido restringidos nos últimos anos.
Fonte da imagem: Dima Solomin / unsplash.com
Essa mudança provocou uma reação extremamente negativa em comunidades online, com pessoas que anteriormente haviam declarado que deixariam de usar o ChatGPT agora recebendo avaliações positivas. Vale ressaltar que nem todos os principais desenvolvedores de IA se recusam a ultrapassar as “linhas vermelhas” da Anthropic. O Google havia incluído tal proibição em suas políticas internas, mas a empresa agora a revogou. A Microsoft não se opõe ao uso de armas de IA, desde que um humano as dispare. A Amazon se limita a uma linguagem vaga sobre o “uso responsável” da IA.
Posteriormente, Sam Altman reiterou que o Departamento de Defesa dos EUA acatará as “linhas vermelhas” declaradas pela empresa em relação a armas autônomas e vigilância em massa de cidadãos americanos, mas não esclareceu como essas garantias seriam implementadas. O chefe da OpenAI citou a legislação americana vigente, que, em particular, permite a vigilância de cidadãos não americanos e, para esses fins, autoriza a coleta indireta ou aleatória de dados sobre cidadãos americanos.
Aos olhos do público, no entanto, a OpenAI deixou a interpretação do que era considerado legal a cargo do Pentágono, enquanto a Anthropic optou por manter o controle total sobre o uso de sua tecnologia. Como resultado, o aplicativo Claude AI da Anthropic tornou-se um dos mais vendidos nas lojas de aplicativos Android e iOS; ele também foi lançado para Windows 11.
Antes da apresentação oficial em 4 de março em Nova York, a Apple revelou o…
Uma ação coletiva movida no Reino Unido em nome de aproximadamente 12,2 milhões de usuários…
A Qualcomm causou sensação no Mobile World Congress, revelando uma gama de produtos focados em…
Embora a Bethesda Game Studios ainda não tenha anunciado oficialmente uma versão para PS5 do…
A Paradox Interactive está se preparando para comemorar o décimo primeiro aniversário do jogo de…
A Intel aproveitou o MWC 2026 para apresentar uma prévia de seus processadores para servidores…