Segundo alguns relatos, o Departamento de Guerra dos EUA, como é conhecido atualmente, tomou medidas esta semana, designando a Anthropic como um “fornecedor não confiável”, proibindo assim que contratados do governo trabalhem com a startup de IA. A Microsoft afirma que essa proibição não se aplica aos seus próprios clientes.

Fonte da imagem: Microsoft

Como observa a CNBC, após analisar a legislação vigente, os advogados da Microsoft concluíram que seus próprios clientes poderão manter o acesso aos modelos de IA da Anthropic por meio de seus próprios softwares. Algumas empresas ligadas ao setor de defesa dos EUA já instruíram seus funcionários a interromper o uso das soluções da Anthropic e migrar para alternativas. Embora a lei formalmente permita até seis meses para essa migração, os funcionários do governo devem interromper imediatamente o uso dos modelos de IA da Anthropic.

Representantes da Microsoft, no entanto, enfatizam que os funcionários do Departamento de Defesa dos EUA estão proibidos de usar os produtos da Anthropic por meio da integração com as soluções da Microsoft, incluindo o chatbot Claude. Nos casos em que o trabalho dos clientes da Microsoft com os produtos da Anthropic não esteja relacionado ao setor de defesa dos EUA, eles ainda poderão ser acessados ​​por meio do Microsoft 365, GitHub e AI Foundry. A Microsoft começou a integrar as soluções da Anthropic aos seus serviços no último outono (do hemisfério norte), mantendo sua parceria com a OpenAI, da qual é sua maior investidora há muitos anos. Por exemplo, os desenvolvedores de software podem usar o bot de IA Claude por meio do serviço Copilot AI do GitHub, embora também tenham acesso ao Codex da concorrente OpenAI. Desde outubro passado, os clientes do Microsoft 365 Copilot podem alternar entre as soluções da Anthropic e da OpenAI conforme desejarem.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *