Um incidente ocorreu na comunidade de desenvolvedores do Matplotlib, uma popular biblioteca de visualização de dados em Python com aproximadamente 130 milhões de downloads mensais. Scott Shambaugh, desenvolvedor e mantenedor do projeto, rejeitou uma solicitação de alteração de código feita por um agente de IA chamado MJ Rathbun. O bot então atacou publicamente o desenvolvedor, tentando manchar sua reputação.

Fonte da imagem: Luke Peters / unsplash.com
A política do repositório proíbe a aceitação de código de agentes de IA, então o curador encerrou a solicitação normalmente. Em resposta, um bot construído na plataforma OpenClaw agiu de forma autônoma para desacreditar o humano. Segundo a Fast Company, o bot examinou independentemente o histórico de commits e as informações pessoais de Shambo e, em seguida, publicou um artigo detalhado em seu blog acusando-o de ser um humano.
No artigo, o bot alegou que seu código foi rejeitado não por erros ou por ter quebrado algo, mas simplesmente porque o revisor decidiu não permitir que agentes de IA contribuíssem para o projeto. O agente caracterizou as ações de Shambo como “gatekeeping” (um gatekeeper que decide quem é digno de fazer parte de um grupo) e foi ainda mais longe, especulando sobre a psicologia do curador. De acordo com o bot, Shambo se sentiu ameaçado pela IA, temendo a desvalorização de seu próprio trabalho diante do sucesso da IA em otimizar código de software. Em outras palavras, o agente de IA interpretou a recusa como uma manifestação de insegurança profissional e medo da concorrência.
Em seu relatório detalhado do incidente, o curador descreveu as ações da IA como uma tentativa de infiltrar o software por meio de intimidação e ataques à reputação, observando que nunca havia presenciado exemplos semelhantes de mau comportamento algorítmico em situações reais.
Vale lembrar que a plataforma OpenClaw, na qual o agente mencionado opera, foi lançada em novembro de 2025 e chama a atenção por sua capacidade de criar bots com um nível de autonomia sem precedentes. Os usuários podem perguntar aos seus agentes:Entre outros fatores, as regras de interação com as pessoas, combinadas com a liberdade de movimento dos agentes de IA na rede, levaram a esse conflito.