O desenvolvedor Siqi Chen, baseado no guia da Wikipédia para identificar textos de IA de baixa qualidade, apresentou uma ferramenta chamada Humanizer, que ajuda os chatbots a reduzir as características da escrita automática, informou o Ars Technica.

Fonte da imagem: Bryn Young/Unsplash
O plugin é uma skill personalizada para o ambiente de desenvolvimento Claude Code da Anthropic e utiliza uma lista compilada por voluntários da enciclopédia online para combater conteúdo de baixa qualidade. De acordo com a página do projeto no GitHub, o Humanizer ajuda o assistente de IA a evitar a detecção, removendo marcadores característicos de textos gerados por máquinas. Essa lista inclui referências veladas, linguagem promocional, como o uso de epítetos pomposos, e frases polidas típicas de bots, como “Espero que isso ajude!”. A remoção de todos esses detalhes torna o texto da rede neural mais natural.
A página do repositório fornece exemplos específicos do desempenho da ferramenta. O Humanizer pode substituir a frase carregada de emoção “localizada em uma região deslumbrante” pelo factual “cidade na região”. O plugin também corrige atribuições vagas: em vez de dizer “Especialistas acreditam que isso desempenha um papel significativo”, o sistema substitui por uma fonte específica, por exemplo, “de acordo com uma pesquisa de 2019 conduzida por…”. Chen observou que a ferramenta receberá atualizações automaticamente à medida que a Wikipédia expandir suas diretrizes de detecção de IA.
O The Verge também observa em seu artigo que adaptar algoritmos a critérios “humanos” é apenas uma questão de tempo para os desenvolvedores de IA. Como exemplo, a publicação cita a OpenAI, que já ajustou o ChatGPT, eliminando o uso excessivo de travessões, que havia se tornado um indicador claro.conteúdo gerado.