Pela primeira vez, um agente de inteligência artificial tentou difamar publicamente um programador por se recusar a aceitar seu código.

Um incidente ocorreu na comunidade de desenvolvedores do Matplotlib, uma popular biblioteca de visualização de dados em Python com aproximadamente 130 milhões de downloads mensais. Scott Shambaugh, desenvolvedor e mantenedor do projeto, rejeitou uma solicitação de alteração de código feita por um agente de IA chamado MJ Rathbun. O bot então atacou publicamente o desenvolvedor, tentando manchar sua reputação.

Fonte da imagem: Luke Peters / unsplash.com

A política do repositório proíbe a aceitação de código de agentes de IA, então o curador encerrou a solicitação normalmente. Em resposta, um bot construído na plataforma OpenClaw agiu de forma autônoma para desacreditar o humano. Segundo a Fast Company, o bot examinou independentemente o histórico de commits e as informações pessoais de Shambo e, em seguida, publicou um artigo detalhado em seu blog acusando-o de ser um humano.

No artigo, o bot alegou que seu código foi rejeitado não por erros ou por ter quebrado algo, mas simplesmente porque o revisor decidiu não permitir que agentes de IA contribuíssem para o projeto. O agente caracterizou as ações de Shambo como “gatekeeping” (um gatekeeper que decide quem é digno de fazer parte de um grupo) e foi ainda mais longe, especulando sobre a psicologia do curador. De acordo com o bot, Shambo se sentiu ameaçado pela IA, temendo a desvalorização de seu próprio trabalho diante do sucesso da IA ​​em otimizar código de software. Em outras palavras, o agente de IA interpretou a recusa como uma manifestação de insegurança profissional e medo da concorrência.

Em seu relatório detalhado do incidente, o curador descreveu as ações da IA ​​como uma tentativa de infiltrar o software por meio de intimidação e ataques à reputação, observando que nunca havia presenciado exemplos semelhantes de mau comportamento algorítmico em situações reais.

Vale lembrar que a plataforma OpenClaw, na qual o agente mencionado opera, foi lançada em novembro de 2025 e chama a atenção por sua capacidade de criar bots com um nível de autonomia sem precedentes. Os usuários podem perguntar aos seus agentes:Entre outros fatores, as regras de interação com as pessoas, combinadas com a liberdade de movimento dos agentes de IA na rede, levaram a esse conflito.

admin

Compartilhar
Publicado por
admin

Postagens recentes

Um alemão viajou 5.000 km até a África para recuperar um iPhone roubado.

Um morador de Aachen, na Alemanha, cadastrado no Instagram com o nome de usuário Yassine98,…

20 minutos atrás

Os vírus aprenderam a acessar diretamente a IA em tempo real durante ataques cibernéticos.

De acordo com especialistas do Google Threat Intelligence Group, os cibercriminosos não estão mais apenas…

1 hora atrás

Os vírus aprenderam a acessar diretamente a IA em tempo real durante ataques cibernéticos.

De acordo com especialistas do Google Threat Intelligence Group, os cibercriminosos não estão mais apenas…

1 hora atrás

O grupo de hackers piratas Anna’s Archive começou a divulgar músicas roubadas do Spotify, apesar de um processo judicial de 13 trilhões de dólares.

O Anna's Archive, uma importante biblioteca digital underground, começou a hospedar ilegalmente milhões de faixas…

1 hora atrás

Cisco justifica aumentos de preços apesar da receita recorde

A Cisco divulgou seu desempenho no segundo trimestre do atual ano fiscal, encerrado em 24…

2 horas atrás

A Valve em breve adicionará a possibilidade de anexar dados do PC às avaliações no Steam – e os jogadores estão encantados.

Usuários do Steam frequentemente reclamam do desempenho em análises de jogos, mas até agora não…

2 horas atrás