Hoje, tornou-se impossível determinar se as publicações nas redes sociais são realmente escritas por pessoas ou por chatbots com inteligência artificial, reclamou o chefe da empresa OpenAI, Sam Altman, na rede social X.
Fonte da imagem: Mariia Shalabaieva / unsplash.com
Altman percebeu isso ao estudar as postagens no Reddit sobre os serviços de codificação com tecnologia de IA Anthropic Claude Code e OpenAI Codex. A comunidade online havia criado tantos tópicos sobre a transição do Claude Code para o Codex que Altman se perguntou quantas dessas postagens haviam sido criadas por pessoas reais. Ele observou diversas tendências que tornam cada vez mais difícil distinguir entre postagens de autoria humana e de IA.
As próprias pessoas estão cada vez mais começando a copiar o estilo de linguagem da IA, o que faz com que a linha entre elas se torne tênue em ambas as direções. Blogueiros e entusiastas que passam uma quantidade excessiva de tempo online (Extremamente Online) começaram a agir em conjunto, postando materiais semelhantes simultaneamente, porque os algoritmos das mídias sociais os impulsionam a fazê-lo. Isso é evidente, por exemplo, nos ciclos padrão de tendências: novos produtos são recebidos inicialmente com entusiasmo, que é instantaneamente substituído por críticas igualmente unânimes; e também no fato de que a maioria dos autores nas redes sociais, em busca de monetização, publicam posts excêntricos, por trás dos quais a sinceridade é cada vez menos visível.
Fonte da imagem: ilgmyzin / unsplash.com
Em mãos habilidosas, todos esses mecanismos se transformam em “astroturfing” — uma imitação do apoio público a uma opinião específica — e o Sr. Altman observou que já havia experimentado esse efeito com os concorrentes da OpenAI. O chefe da empresa citou o hype em torno do lançamento não muito bem-sucedido do modelo de linguagem principal GPT-5 como uma de suas manifestações. Logo após seu lançamento, Altman realizou uma série de perguntas e respostas no Reddit, nas quais reconheceu a existência de alguns problemas, mas não conseguiu restaurar o nível de confiança anterior. “Como resultado, há uma sensação de que a IA-Twitter e a IA-Reddit se tornaram de alguma forma artificiais, o que não acontecia há um ou dois anos”, reclamou o chefe da OpenAI.
É realmente difícil precisar a proporção de posts no Reddit escritos por IA, mas pode ser significativo: de acordo com um estudo da empresa de segurança cibernética Imperva, mais da metade de todo o tráfego da internet em 2024 não foi criado por humanos, e isso se deve em grande parte a modelos de IA. Uma teoria é que Altman está abordando essa questão porque a OpenAI está preparando sua própria rede social, mas é improvável que ela consiga garantir que a plataforma também não será povoada por bots de IA.
Foi descoberta uma vulnerabilidade na ferramenta de segurança Web Application Firewall (WAF) da Cloudflare que…
No sábado, 17 de janeiro de 2026, a China vivenciou um evento raro nos últimos…
Foi revelado ontem que a NASA ainda não conseguiu concluir a investigação sobre um incidente…
A ByteDance, empresa chinesa de capital fechado, é mais conhecida como criadora da rede social…
A Realme anunciou o lançamento do smartphone P4 Power, o primeiro dispositivo móvel da empresa…
Swen Vincke, fundador, CEO e diretor criativo da Larian Studios, discutiu em seu microblog o…