A Anthropic treinou seus modelos de IA com inúmeras violações de direitos autorais, mas reagiu de forma extremamente negativa quando se viu em uma situação semelhante. Após um vazamento acidental das instruções subjacentes usadas para gerenciar o Claude Code, elas se tornaram amplamente disponíveis e foram ativamente utilizadas. Representantes da Anthropic exigiram que o GitHub removesse mais de 8.000 cópias e adaptações do código-fonte vazado.
Fonte da imagem: Anthropic
Informações confidenciais sobre o Claude Code foram acidentalmente vazadas em 31 de março. Como a maioria dos softwares proprietários, o código-fonte do Claude é geralmente ofuscado e difícil de ser submetido a engenharia reversa. No entanto, desta vez, a empresa publicou um arquivo no GitHub contendo um link para o código-fonte, que podia ser baixado e lido livremente por terceiros. Um usuário percebeu rapidamente o vazamento e o compartilhou nas redes sociais. Numerosos programadores e entusiastas de IA imediatamente se mobilizaram para investigar.
As redes sociais foram inundadas com avaliações entusiasmadas de alguns dos softwares e “truques” algorítmicos da Anthropic. Um recurso exige que os modelos retornem periodicamente às tarefas e consolidem suas memórias — um processo que a Anthropic chama de “sonhar”. Outro recurso instrui o Claude a não revelar sua identidade de IA ao publicar o código em plataformas como o GitHub. Foram descobertas tags no código indicando futuros lançamentos de produtos e até mesmo o código para um bichinho virtual no estilo Tamagotchi chamado “Buddy”, com o qual os usuários poderiam interagir.
Como resultado, os concorrentes da Anthropic, assim como inúmeras startups e desenvolvedores, agora possuem planos detalhados de desenvolvimento de produtos e a capacidade de clonar recursos do Claude Code sem engenharia reversa — algo comum no competitivo campo da IA. O vazamento também oferece aos hackers a oportunidade de encontrar bugs que poderiam ser explorados ou manipulados pelo modelo de IA do Claude para ataques cibernéticos.
O vazamento de “parte do código-fonte interno” não revelou nenhuma informação ou dado.Um porta-voz da Anthropic afirmou que o vazamento foi um duro golpe para os clientes da empresa. Além disso, não foram divulgados pesos valiosos de modelos. No entanto, informações comercialmente sensíveis, incluindo os métodos, ferramentas e instruções da Anthropic para gerenciar modelos de IA como agentes, foram amplamente vazadas.
“Tratou-se de um problema no pacote de lançamento causado por erro humano, não uma violação de segurança. Estamos tomando medidas para evitar incidentes semelhantes no futuro”, declarou o porta-voz da empresa. Apesar dessa declaração, o vazamento representa um duro golpe para a Anthropic, pois ameaça prejudicar a reputação da empresa em segurança e expor segredos comerciais valiosos em um mercado competitivo por clientes corporativos. A popularidade viral do Claude Code ajudou a Anthropic a atrair investimentos que elevaram seu valor de mercado para US$ 380 bilhões.
Após a Anthropic exigir que o GitHub removesse cópias de seu código proprietário, a funcionalidade do Claude Code foi reescrita utilizando ferramentas de IA de terceiros. O autor desse “projeto” afirmou que o objetivo de seus esforços era preservar a disponibilidade das informações sem correr o risco de sua exclusão. Esta versão “pirateada” já se tornou bastante popular no GitHub.
A editora Devolver Digital e os desenvolvedores do estúdio polonês Artificer (Showgunners, Sumerian Six) anunciaram…
Interfaces cérebro-computador estão sendo cada vez mais utilizadas para restaurar funções perdidas. O psicólogo e…
A AUO anunciou um monitor gamer de 24 polegadas com resolução Full HD e taxa…
Os preparativos aparentemente começaram para o que se espera ser a maior oferta pública inicial…
A Intel anunciou que investirá US$ 14,2 bilhões para recomprar a participação de 49% em…
Durante anos, os produtos Raspberry Pi foram a referência em dispositivos de computação acessíveis para…