A Anthropic treinou seus modelos de IA com inúmeras violações de direitos autorais, mas reagiu de forma extremamente negativa quando se viu em uma situação semelhante. Após um vazamento acidental das instruções subjacentes usadas para gerenciar o Claude Code, elas se tornaram amplamente disponíveis e foram ativamente utilizadas. Representantes da Anthropic exigiram que o GitHub removesse mais de 8.000 cópias e adaptações do código-fonte vazado.

Fonte da imagem: Anthropic

Informações confidenciais sobre o Claude Code foram acidentalmente vazadas em 31 de março. Como a maioria dos softwares proprietários, o código-fonte do Claude é geralmente ofuscado e difícil de ser submetido a engenharia reversa. No entanto, desta vez, a empresa publicou um arquivo no GitHub contendo um link para o código-fonte, que podia ser baixado e lido livremente por terceiros. Um usuário percebeu rapidamente o vazamento e o compartilhou nas redes sociais. Numerosos programadores e entusiastas de IA imediatamente se mobilizaram para investigar.

As redes sociais foram inundadas com avaliações entusiasmadas de alguns dos softwares e “truques” algorítmicos da Anthropic. Um recurso exige que os modelos retornem periodicamente às tarefas e consolidem suas memórias — um processo que a Anthropic chama de “sonhar”. Outro recurso instrui o Claude a não revelar sua identidade de IA ao publicar o código em plataformas como o GitHub. Foram descobertas tags no código indicando futuros lançamentos de produtos e até mesmo o código para um bichinho virtual no estilo Tamagotchi chamado “Buddy”, com o qual os usuários poderiam interagir.

Como resultado, os concorrentes da Anthropic, assim como inúmeras startups e desenvolvedores, agora possuem planos detalhados de desenvolvimento de produtos e a capacidade de clonar recursos do Claude Code sem engenharia reversa — algo comum no competitivo campo da IA. O vazamento também oferece aos hackers a oportunidade de encontrar bugs que poderiam ser explorados ou manipulados pelo modelo de IA do Claude para ataques cibernéticos.

O vazamento de “parte do código-fonte interno” não revelou nenhuma informação ou dado.Um porta-voz da Anthropic afirmou que o vazamento foi um duro golpe para os clientes da empresa. Além disso, não foram divulgados pesos valiosos de modelos. No entanto, informações comercialmente sensíveis, incluindo os métodos, ferramentas e instruções da Anthropic para gerenciar modelos de IA como agentes, foram amplamente vazadas.

“Tratou-se de um problema no pacote de lançamento causado por erro humano, não uma violação de segurança. Estamos tomando medidas para evitar incidentes semelhantes no futuro”, declarou o porta-voz da empresa. Apesar dessa declaração, o vazamento representa um duro golpe para a Anthropic, pois ameaça prejudicar a reputação da empresa em segurança e expor segredos comerciais valiosos em um mercado competitivo por clientes corporativos. A popularidade viral do Claude Code ajudou a Anthropic a atrair investimentos que elevaram seu valor de mercado para US$ 380 bilhões.

Após a Anthropic exigir que o GitHub removesse cópias de seu código proprietário, a funcionalidade do Claude Code foi reescrita utilizando ferramentas de IA de terceiros. O autor desse “projeto” afirmou que o objetivo de seus esforços era preservar a disponibilidade das informações sem correr o risco de sua exclusão. Esta versão “pirateada” já se tornou bastante popular no GitHub.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *