Na semana passada, um escândalo eclodiu em torno da colaboração da Anthropic com o Departamento de Defesa dos EUA, levando a empresa a ser incluída em uma lista de fornecedores não confiáveis ​​e a perder todos os contratos governamentais. Como explica a revista The Atlantic, mesmo nas fases finais das negociações, ambos os lados tentaram amenizar as diferenças, mas, no fim, não conseguiram chegar a um consenso.

Fonte da imagem: Unsplash, Sergey Koznov

Vale lembrar que a Anthropic estava preocupada com a possibilidade de usar seus sistemas de IA para vigilância em massa de cidadãos americanos e sistemas de armas controlados autonomamente, capazes de identificar e destruir alvos de forma independente. Já na manhã de sexta-feira, segundo uma fonte, representantes do Departamento de Guerra dos EUA estavam dispostos a fazer concessões, incluindo as restrições pertinentes no contrato, mas com uma ressalva importante. O Departamento de Guerra dos EUA, como agora se sabe, queria reservar o direito de monitorar cidadãos americanos e usar IA para controlar sistemas de armas apenas em casos excepcionais.

Os representantes da Anthropic esperaram até o último momento que a outra parte nas negociações não incluísse tais exceções, mas o milagre não aconteceu e, portanto, o contrato foi cancelado. O principal motivo foi a intenção do governo americano de usar a IA da Anthropic para analisar dados coletados sobre as atividades de cidadãos americanos. Conversas com chatbots, redes sociais, histórico de buscas no Google, dados de localização por GPS, transações bancárias e de cartões — todos esses dados sobre um cidadão específico poderiam ser analisados ​​e interconectados para atender às necessidades de agências do governo americano. A Anthropic claramente não estava satisfeita com isso, e essa contradição se tornou a chave para o fracasso do acordo com o Pentágono.

Em termos de controle de sistemas de armas, a Anthropic não se opunha à ideia em geral, mas buscava torná-la mais segura. A administração da empresa acredita que a IA ainda não é sofisticada o suficiente no estágio atual de desenvolvimento para permitir isso.Controle total de armamentos. Em uma das etapas das negociações, a Anthropic insistiu que sua IA fosse usada pelos militares apenas dentro da infraestrutura de nuvem, sem se estender à borda — em termos gerais, dentro do próprio drone ou de outro sistema autônomo de destruição de alvos. Se os drones cometessem erros fatais sob tal separação, a IA da Anthropic não poderia, nominalmente, ser responsabilizada por eles.

O Pentágono não conseguiu garantir tal separação, já que a arquitetura moderna para equipamentos militares e controle de pessoal não prevê uma fronteira clara entre computação em nuvem e computação de borda. A própria Anthropic concluiu que não poderia isolar sua IA na nuvem e, portanto, era melhor não se envolver no controle de armamentos. O comportamento da concorrente OpenAI merece atenção especial; seu CEO, Sam Altman, expressou solidariedade à Anthropic poucas horas antes de anunciar um acordo com o Pentágono para usar a IA da empresa em sistemas militares classificados dos EUA. Ele compartilhou suas opiniões sobre a situação com a Anthropic, e sua principal tese é que, em assuntos desse nível, a palavra final deve caber ao Estado, e não a uma empresa privada.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *