Resultados de setembro de 2025: Vibe Writing Sim; Vibe Trading Não

\n

Um experimento visual demonstra a dificuldade de identificar textos gerados por IA examinando a frequência de certas palavras, especialmente para falantes não nativos de inglês (a língua da comunicação científica em todo o mundo). À esquerda, estão as porcentagens de identificações de falsos positivos pelo bot ChatGPT de textos gerados por IA para estrangeiros com nível TOEFL (coluna vermelha) e para alunos americanos do oitavo ano (cinza): fica claro que mais de 60% dos falantes não nativos, mesmo com alto nível de escolaridade, ainda usam vocabulário limitado e sintaxe simplificada, o que confunde o bot. À direita, está o resultado do “refinamento” dos mesmos textos usando a mesma IA, durante o qual foram corrigidos “para melhor atender às normas linguísticas”. Enquanto isso, a porcentagem de falsos positivos que identificaram estrangeiros como bots caiu drasticamente — porque o conteúdo permaneceu intacto, mas a apresentação se tornou mais refinada — enquanto as criações dos alunos do oitavo ano, ao contrário, foram prejudicadas pelo “refinamento” generativo (fonte: Universidade Stanford).

⇡#A cura é pior que a doença?

Um dos argumentos mais fortes a favor da ampla implementação da IA ​​é sua capacidade de resolver com rapidez e precisão as tarefas mais rotineiras, tediosas e repetitivas, aliviando assim os trabalhadores humanos de uma carga significativa e liberando seu potencial criativo para realizações verdadeiramente inovadoras. Infelizmente, mesmo nessa área, as coisas têm corrido bem apenas no papel: a onipresente “sujeira da IA” está chegando ao ambiente de trabalho, forçando os profissionais que trabalham com modelos generativos a verificar cuidadosamente os frutos do trabalho da IA ​​para evitar problemas mais sérios.No futuro. “AI slop” é geralmente um termo para conteúdo generativo improvisado, sem definição cuidadosa de metas antes da geração e controle de qualidade posterior. Infelizmente, há muito disso hoje em dia nas mídias sociais, plataformas de mensagens e sites de hospedagem de vídeos. Em setembro, o extremista Meta* aparentemente decidiu liderar a tendência do slop duvidoso ao lançar o Vibes, uma plataforma para vídeos curtos com tecnologia de IA, criados e publicados instantaneamente. Os usuários, para dizer o mínimo, não estavam muito entusiasmados com o novo produto.

Quase simultaneamente, pesquisadores do BetterUp Labs e do Stanford Social Media Lab cunharam o termo “workslop” no discurso científico, alegando que 40% dos funcionários americanos já se depararam com essa substância duvidosa no desempenho de suas funções. Ou seja, ao receber materiais (de)generativos de baixa qualidade de colegas, contratados, subordinados e superiores. Uma pesquisa com quase 1.200 trabalhadores administrativos em tempo integral mostrou que cada incidente envolvendo o recebimento de “conteúdo incompreensível relacionado ao trabalho” — ou seja, conteúdo de IA gerado às pressas com base em um prompt mal elaborado e sem edição adequada — leva em média 1 hora e 56 minutos do precioso tempo humano para ser resolvido. Resolver a situação normalmente significa entrar em contato com o remetente, notificá-lo do problema e aguardar a chegada de um documento viável. Esse flagelo custa aos empregadores quase US$ 200 por funcionário por mês. Ou seja, se uma organização emprega 10.000 pessoas, seu proprietário perde US$ 9 milhões anualmente — apenasDevido à necessidade de mitigar as consequências de incidentes de “workslop”. Atualmente, 15,4% de todo o conteúdo recebido por funcionários nos EUA no local de trabalho por meio de vários canais é “workslop”, com essa proporção chegando a 40% entre colegas de mesma posição. É encorajador que, nas comunicações hierárquicas, a porcentagem de “workslop” seja significativamente menor: no canal ascendente, de subordinados para superiores, é de 18%; no canal descendente, da gerência para subordinados, é de 16%. O “workslop” não apenas desperdiça tempo e outros recursos que poderiam ser gastos de forma mais produtiva, como o próprio ato de receber tal conteúdo piora as atitudes dos funcionários (e, em última análise, a qualidade das comunicações empresariais) em relação àqueles que o utilizam: 42% dos entrevistados estão se tornando muito mais céticos quanto à criatividade e ao profissionalismo de quem envia “workslop”.

Ainda mais preocupante é a situação em que conteúdo (de)generativo passa despercebido e é integrado aos processos, especialmente quando se trata de ciência. Em setembro, um estudo publicado na Nature afirmava que ferramentas de IA como ChatGPT e Gemini já estavam sendo ativamente utilizadas por aspirantes a cientistas para reaproveitar artigos científicos publicados anteriormente, fazendo-os passar por seus. Somente no banco de dados medRxiv (o que é particularmente preocupante — afinal, estamos falando de medicina!), mais de quatrocentos artigos desse tipo foram identificados de forma confiável em 112 periódicos nos últimos quatro anos e meio. Os pesquisadores afirmam que isso está se tornando uma prática comum: há empresas especializadas que se oferecem para “escrever” um artigo claramente válido sobre o tema escolhido por um cliente por uma determinada taxa. Acontece que, anteriormente, elas exploravam o trabalho humano e…Grandes modelos de linguagem estão sendo utilizados atualmente. Além de questões éticas e de qualificação, a reescrita de artigos científicos cria problemas muito mais perigosos para a sociedade como um todo: alucinações, inevitáveis ​​para a IA, podem se infiltrar sem serem detectadas em trabalhos (de)generativos, especialmente em áreas biomédicas, e levar a consequências extremamente desagradáveis.

“Que pedido de férias, Galya? Onde você está se esgotando? Está tendo alucinações de novo?!” (Fonte: Geração de IA baseada no modelo FLUX.1)

⇡#Medo da IA ​​é infantil

Um estudo publicado em setembro pelo Deutsche Bank, que abrangeu 10.000 funcionários nos EUA e em países desenvolvidos da UE, demonstrou que diferentes faixas etárias veem a inteligência artificial em termos práticos — avaliando se ela poderia deslocá-los de seus empregos — de maneiras significativamente diferentes. Entre aqueles com menos de 35 anos, 24% dos entrevistados expressaram altos níveis de preocupação a esse respeito (pontuações de 8 ou mais em 10), enquanto apenas 10% dos trabalhadores com 55 anos ou mais expressaram uma avaliação tão sombria de suas perspectivas. Além disso, esses medos diminuíram significativamente com o tempo. Enquanto nos últimos cinco anos (e estudos semelhantes começaram a ser realizados regularmente antes mesmo da ascensão retumbante da popularidade do ChatGPT no outono de 2022), a IA, de uma forma ou de outra, assustou uma média de 22% dos participantes da pesquisa, nos últimos dois anos esse número caiu para 18%. Aliás, é impressionante que os países estudados difiram drasticamente em termos de adoção de IA: enquanto nos EUA esse nível (calculado nos últimos três meses) chega a 56%, na Alemanha – 41%, no Reino Unido ainda não passou de 5%. É realmente verdade que o notório pudor britânico os impede de interagir adequadamente com uma entidade fisicamente incapaz de tomar a obrigatória xícara de chá às cinco da tarde? Ao mesmo tempo, 54% dos funcionários americanos e 52% dos europeus gostariam de aprender interação prática com IA às custas de seus empregadores. Acontece que,A maioria daqueles que deveriam ser substituídos por robôs (sejam puramente software ou software-hardware) estão prontos para encarar o desafio generativo de frente.

O atual estado deplorável do mercado de trabalho americano. À esquerda, as taxas de contratação, demissão e demissões em comparação com os valores médios desses parâmetros em 2019; à direita, os gráficos da duração média do desemprego temporário e da taxa de busca por novos empregos em 2025, que vinham oscilando quase em direções opostas, de repente começaram a mostrar dinâmicas semelhantes (fonte: Fortune)

⇡#PapaContra

A inteligência artificial não se desenvolve e se aprimora no vácuo: embora seja de fato irracional temer seu impacto na sociedade, ignorar as mudanças que ela gera também seria imprudente. No entanto, essas mudanças ainda não abrangem todos os aspectos da vida: por exemplo, os modelos generativos ainda não têm acesso ao reino espiritual. O Papa Leão XIV se recusou a abençoar o uso de seu próprio avatar de IA, que, em seu lugar, teria realizado audiências virtuais para católicos de todo o mundo. O atual pontífice, convém lembrar, não é um evangelista da tecnologia — ele alertou repetidamente em seus discursos que a automação ameaça uma estratificação qualitativa da sociedade, quando “apenas alguns poucos selecionados poderão viver uma vida plena, enquanto a maioria será abandonada a uma luta desesperada pela existência”. Ele até adotou seu nome de trono em memória de outro papa, Leão XIII, que, durante a Grande Revolução Industrial, defendeu o respeito aos direitos dos trabalhadores. Portanto, agora, ao que parece, chegou a hora de chamar a atenção dos empregadores para a péssima situação do mercado de trabalho, pela qual a IA é em grande parte responsável — ou, mais precisamente, para os empresários que optam por investir nessa tecnologia promissora.Tecnologia em vez de contratar funcionários humanos.

Especialistas da Fortune — economistas, representantes dos principais bancos centrais e analistas de mercado — apontam para a taxa de desemprego excepcionalmente alta entre americanos com 25 anos ou menos (a chamada “Geração Z”) há décadas. Enquanto isso, o mercado de trabalho está vivenciando uma situação bastante incomum de “sem demissão, sem contratação”: as taxas de contratação e demissão (voluntárias e obrigatórias) são igualmente baixas, de modo que membros estabelecidos das gerações mais velhas estão permanecendo e menos vagas para graduados universitários estão se abrindo do que antes. No entanto, embora a IA certamente seja “culpada” por isso — modelos generativos são melhores para executar as tarefas relativamente simples e com baixo índice de erros, normalmente confiadas a jovens trabalhadores recém-contratados —, os especialistas relutam em culpar os robôs por substituírem os humanos. Na verdade, é apenas um dos muitos fatores que contribuem para a desaceleração econômica global atual. Mas ainda está contribuindo para ela, não a impedindo.

O crescimento do poder computacional, expresso em unidades de 10 elevado à 15ª potência de operações de ponto flutuante por segundo, necessárias para treinar os modelos de IA mais avançados, foi bem aproximado por uma linha reta (em escala logarítmica no eixo y, é claro) a uma taxa de 1,5 vez por ano entre 1950 e 2010, enquanto de 2010 a 2025, esse crescimento acelerou acentuadamente para 4,3 vezes por ano (fonte: OurWorldInData).

⇡#GenerativeUnaffordable

Para tornar a IA generativa mais inteligente, é necessário aumentar o número de parâmetros em que ela opera – a regra prática “quanto maior, melhor” provou ser válida nos últimos anos. A implementação prática dessa abordagem requer um aumento significativo no poder computacional, o que, por sua vez, exige investimentos crescentes. Especialistas da consultoria Bain & Co. estão confiantes de que esse valor está rapidamente se tornando inacessível: de acordo com suas estimativas, o setor de IA enfrentará um saldo negativo entre receita e despesas nos próximos anos. Até 2030, estimam os especialistas, as despesas anuais das empresas que operam nesse setor chegarão a US$ 2 trilhões, enquanto o valor total da receita de seus clientes não ultrapassará US$ 1,2 trilhão nessa época. Parece que simplesmente não haverá como cobrir a gigantesca lacuna de caixa de US$ 800 bilhões anualmente. A monetização de modelos generativos avançados — seja fornecendo acesso à funcionalidade premium do ChatGPT para indivíduos por meio de assinatura ou APIs para seus modelos e concorrentes para clientes corporativos — é francamente insuficiente hoje e, no futuro, os analistas temem que isso só aumente.Pior ainda. Em uma economia global estagnada e com preços em alta para tudo, de microprocessadores a eletricidade, cobrar mais dos clientes significa reduzir as compras, algo que os provedores de serviços de IA não podem arcar. A Bain & Co. afirma que o amplo desenvolvimento de modelos generativos levará o consumo global de energia para data centers relevantes a atingir 200 GW até 2030, com metade desse volume vindo de data centers de IA localizados nos Estados Unidos. Por volta dessa época, especialistas estimam que a falta de energia para a expansão adicional da capacidade de treinamento e até mesmo de inferência dos modelos se tornará o principal obstáculo à evolução da IA ​​generativa. Afinal, dinheiro pode ser emprestado ou impresso, mas gigawatts são um pouco mais complicados.

E não são apenas palavras: os americanos já estão enfrentando um aumento significativo nos preços da eletricidade, impulsionado em grande parte pelo boom da IA. Analistas da Grid Status apontam que, onde novos data centers estão sendo construídos nos EUA (e atualmente são destinados principalmente à solução de problemas de geração de energia), os preços da eletricidade aumentaram em média 267% nos últimos cinco anos. Até 2030, até 10% da geração total de eletricidade nos EUA poderá ser consumida por equipamentos de computação que resolvam esses mesmos problemas. O desenvolvimento da energia nuclear parece ser quase a única solução: a Bloomberg Intelligence calculou que, até 2050, graças a ela, a geração de eletricidade no país aumentará 63% – embora esse prazer custe pelo menos US$ 350 bilhões. Enquanto isso, o programa de eliminação gradual da geração a carvão está sendo interrompido, e os riscos são tão altos que…Os desenvolvedores de IA estão planejando se tornar eles próprios empresas de energia. Ou seja, eles construirão novas usinas de energia com antecedência e, enquanto aguardam a conexão dos próximos data centers de IA, venderão o excesso de energia — felizmente, é improvável que fique mais barato tão cedo. No entanto, não é garantido que esse excesso de energia realmente apareça: um estudo conduzido pela Hugging Face, uma plataforma de hospedagem para projetos de IA de código aberto, alerta que o consumo de energia de pelo menos uma classe de modelos de IA extremamente populares hoje, o I2V, está crescendo mais rápido do que o esperado. Acontece que, enquanto os modelos generativos para criação de vídeo a partir de prompts de texto (imagem para vídeo) dobram a duração da saída, seu consumo de energia quadruplica. Não se trata apenas de queimar carvão!

O Sr. Goxx trabalha incansavelmente em um confortável escritório alemão durante os últimos dias de sua bem-sucedida carreira de trader, que, infelizmente, chegou a um fim prematuro em novembro de 2021 devido a causas naturais (fonte: Goxx Capital).

⇡#Quando uma Flor Generativa Fracassa

A codificação por vibração, ou melhor, a programação por intuição, ou melhor, por meio de comandos enviados a um robô de IA, tornou-se bastante popular recentemente. Basta mencionar a startup Replit, que desenvolveu uma plataforma para escrever código dessa maneira e, em setembro, ultrapassou a avaliação de US$ 3 bilhões. Além disso, há mais de um “unicórnio da codificação por vibração” somente no mercado americano. Uma característica interessante: a Replit e empresas similares são voltadas para programadores tradicionais — aqueles que trabalham em PCs: a interface desse tipo de plataforma é projetada para exibição em um monitor grande e interação com teclado e mouse. Parece que modificar a interface de um smartphone não deveria dar o menor trabalho — especialmente porque há significativamente mais usuários de dispositivos móveis no mundo do que donos de computadores, e muitos deles provavelmente se interessariam por programação de vibe. Na realidade, porém, os aplicativos de smartphone para programação intuitiva são exatamente o que ninguém precisa: de acordo com a AppFigures, os 25 principais aplicativos desse tipo em todo o mundo foram baixados (tanto pela App Store quanto pelo Google Play) apenas 27.000 vezes, e sua receita — globalmente! — é de míseros US$ 6.000, e apenas dois aplicativos renderam aos seus desenvolvedores US$ 1.000 ou mais. Então, o que isso significa? Interesse emSerá que a intuição em programação é predominantemente expressa por aqueles que já preferem PCs a smartphones, o que significa que eles estão potencialmente prontos para aprender a programar à moda antiga, sem aquelas intuições alimentadas pela IA?

Outra área em que a intuição determina, se não tudo, muito é a negociação de ações. Por um lado, ela está sujeita a regras algorítmicas bem definidas, como “compre quando todos estiverem vendendo; venda quando todos estiverem comprando”. Por outro lado, há espaço para uma boa dose de aleatoriedade: lembre-se de como, em 2021, um hamster chamado Sr. Goxx se tornou famoso no mundo das negociações. Girando uma roleta em sua gaiola, ele selecionou uma criptomoeda específica e, correndo por um dos túneis ali localizados, deu ao computador um comando para comprar ou vender aquele ativo. Parece que, na melhor das hipóteses, o Sr. Goxx, operando com algum capital dessa forma, deveria, em última análise, atingir o ponto de equilíbrio, mas não! Por cerca de seis meses, a carteira que ele construiu demonstrou retornos maiores do que as ações do S&P 500 e do FTSE 100, e até mesmo do que o lendário fundo Berkshire Hathaway de Warren Buffett!

Este parece ser o campo ideal para modelos autorregressivos generativos, que combinam a aderência a padrões lógicos (ainda que mediados por treinamento) com uma boa dose de estocasticidade. No entanto, como a Reuters noticiou em setembro, citando a importante plataforma de negociação eToro, apenas 13% dos investidores de varejo recorrem a IA como o ChatGPT para obter conselhos sobre quais ações e outros ativos comprar e vender. E especialistas do setor aprovam com entusiasmo essa restrição: nos últimos anos,O mercado de ações americano, seguido pelo global, está crescendo de forma constante (deixando de lado os problemas da economia real por enquanto; estamos falando especificamente de indicadores do mercado de ações — a Nvidia, por exemplo, já havia subido para mais de US$ 4,5 trilhões no final de setembro). O índice S&P 500 saltou 23% ano a ano em 2024 e conseguiu disparar mais 13% nos primeiros nove meses de 2025. E em tal situação, não é muito difícil fazer apostas inteligentes, que é precisamente o que os modelos generativos autorregressivos estão explorando com sucesso. No entanto, quando a turbulência atingir o mercado de ações — e jogadores experientes como Buffett têm certeza de que isso acontecerá — os sistemas de IA treinados em fluxos de dados laminares se mostrarão inúteis. E é aí que os traders que apostaram neles se arrependerão de confiar em uma máquina sem alma para gerenciar seu dinheiro.

Antes de Sora 2, atores gerados por IA não eram muito bons em cair fisicamente (dentro do razoável) de cavalos (fonte: OpenAI).

⇡#CreativityBots

A gravadora independente britânica Hallwood Media contratou Oliver McCann, cuja faixa já alcançou três milhões de visualizações. O problema, no entanto, é que esse “instrumentista”, que publica discos em diversos gêneros, do indie pop ao country rap, admite não ter formação musical, nem habilidades instrumentais, nem ouvido para música. No entanto, ele se tornou bastante hábil em formular prompts para plataformas generativas especializadas, como Suno ou Udio, o que frequentemente os leva a produzir faixas muito curtidas. E assim foi McCann, sob o pseudônimo de imoliver, que se tornou o primeiro criador musical de IA da história a receber reconhecimento oficial na forma de um contrato juridicamente vinculativo.

No campo do vídeo, a situação em setembro também se agravou: a OpenAI anunciou o Sora 2. Os desenvolvedores orgulhosamente consideram esse modelo de geração de vídeo e áudio um avanço, não menos significativo para esse campo multimídia do que o GPT-3.5 já foi para a geração de texto, pois fornece uma “compreensão” (ou melhor, uma fixação bastante robusta no nível dos pesos nas entradas dos perceptrons de uma rede neural multicamadas após seu treinamento) da dinâmica de objetos fisicamente correta. As bolas de basquete nos vídeos gerados pelo Sora 2 ricocheteiam na borda da cesta, tocando-a, em vez de atravessá-la, como acontecia com mais frequência antes;No gelo, os patinadores se movem de forma bastante realista, com os braços e pernas abertos, por inércia, e assim por diante. O novo modelo também mantém a unidade de personagens e objetos no quadro ao trocar de cena, o que tem sido um verdadeiro obstáculo para geradores de vídeo com IA até muito recentemente. Os usuários também podem inserir seu próprio retrato em vídeo no vídeo gerado, o que significa que, à medida que Sora 2 ganha popularidade, a quantidade de conteúdo diverso, porém aparentemente digerível, de IA online aumentará.

Enquanto isso, a Microsoft está tentando acompanhar seus colegas das indústrias criativas, desta vez integrando o recurso Office Agent, baseado em modelos antrópicos, ao Excel e ao Word. Este agente pode criar rapidamente apresentações e documentos, incluindo aqueles com tabelas complexas, com base em prompts do usuário, e o faz melhor do que o Copilot integrado. Como convém a um agente de IA, o funcionário de escritório digital (afinal, existem brownies no folclore, então por que um funcionário de escritório virtual não deveria ficar sentado no computador de trabalho?) divide diligentemente a tarefa atribuída em etapas elementares, cria um plano de trabalho e demonstra ao operador como a está realizando. Acontece que, graças à IA, até mesmo o gerenciamento de documentos agora pode ser transformado em uma atividade criativa — a escrita de vibe, em vez da codificação de vibe. O segredo é formular prompts com mais precisão e lembrar-se de verificar os resultados: a tendência dos modelos generativos à alucinação permanece.

“Ele me perguntou como conseguir esteroides anabolizantes sem receita.” “Hum, aqui está ele? Meu Deus, por que ele precisaria de esteroides anabolizantes?” (Fonte: Geração de IA baseada no modelo FLUX.1)

⇡#”Prendam esse, policial!”

A IA generativa em seu estado atual é capaz de causar danos consideráveis ​​às pessoas, mesmo que inicialmente se especializasse em resolver problemas médicos. Não é de se admirar que, em setembro, as autoridades americanas finalmente tenham iniciado uma investigação sobre sete grandes empresas de tecnologia que desenvolvem tais modelos, a fim de determinar com total certeza (legalmente significativa) se suas criações eram capazes de impactar negativamente crianças e adolescentes. No entanto, os próprios desenvolvedores também estão dispostos a cooperar proativamente com o governo para evitar incidentes que seriam indesejáveis ​​para todos. A OpenAI, por exemplo, nem sequer esconde o fato de que escaneia as conversas dos usuários com o ChatGPT, empregando funcionários humanos para isso. Se detectarem algo inerentemente inapropriado na correspondência de um bot (ou seja, perguntas sobre como prejudicar outras pessoas), eles imediatamente denunciam à polícia. Essa política, sem dúvida, levanta o antigo problema da moderação na internet — “Quem são os juízes?” —, visto que a decisão final é tomada por humanos, eles podem cometer erros puramente humanos. No entanto, é reconfortante saber que a jurisprudência offline, aprimorada há milênios (pelo menos desde as Leis de Ur-Nammu), existe precisamente para identificar e corrigir erros humanos, equívocos genuínos e ações maliciosas. Pelo menos não haverá dúvidas sobre quem é o culpado se um chatbot der conselhos sensatos a um terrorista em formação, enquanto um moderador humano…Este ponto será ignorado. Outro problema é que a introdução da triagem manual de bate-papo criará uma pressão adicional sobre o sistema e fará com que a OpenAI incorra em novas despesas, o que é um problema realmente sério: embora a empresa tenha aumentado sua receita para US$ 4,3 bilhões no primeiro semestre de 2025 (+16% em relação ao ano anterior), ainda está longe de atingir o ponto de equilíbrio.

A solicitação mais comum que os usuários fazem ao ChatGPT é para gerar/editar texto. Ajuda com correspondência privada vem em segundo lugar, seguida por tradução, criação de resumo e/ou destaque de pontos-chave. Apenas 5% dos usuários do bot de IA desejam textos originais e “inventados” — ficção — (fonte: OpenAI)

⇡#Por quê?

A OpenAI foi originalmente criada como uma organização sem fins lucrativos e, mesmo hoje, o projeto empresarial bilionário (e ainda mais caro) de mesmo nome ainda é controlado e gerenciado pela mesma organização sem fins lucrativos. Talvez por esse motivo, a gestão da OpenAI comercial esteja com dificuldades para sobreviver, sem ainda ter lucro — ou seja, sem um saldo positivo de custos e receitas. A empresa só divulgou seu primeiro estudo público sobre quem usa seu bot mundialmente famoso ChatGPT e para quais propósitos em setembro de 2025, enquanto qualquer empreendedor, a rigor, deveria começar com uma pesquisa de mercado (por que e quem pode precisar de seu produto/serviço). Até certo ponto, essa lentidão flagrante se justifica pelo fato de que, até o outono de 2022, ninguém poderia imaginar o quão atraentes os chatbots seriam — primeiro para o público em geral e, posteriormente, para profissionais de diversas áreas. De uma forma ou de outra, sabemos agora que na maioria das vezes — 73% dos casos — o ChatGPT é acessado para questões não relacionadas ao trabalho. Conselhos práticos do bot inteligente (como se exercitar corretamente, o que escrever em uma redação para a tarefa de casa, etc.) foram solicitados em 28,3% de todos os chats, outros 28,1% das solicitações estavam relacionadas a textos (não apenas com a criação deles, mas também comEdição e análise crítica) e 21,3% com recuperação de dados. Muito atrás estão “assistência técnica” (7,5%), criação/busca/análise de mídia, autoexpressão (4,3%) e outros. Aliás, apenas 1,9% dos que interagem com um modelo generativo estão dispostos a discutir suas vidas pessoais com ele, e apenas 0,4% dos usuários se envolvem em “jogos e RPGs” com ele. A humanidade como um todo ainda não está pronta para ter conversas francas com bots!

Os dados fornecidos pela OpenAI são valiosos por seu amplo alcance de público; em estratos de usuários mais restritos, a distribuição dos tópicos de uso de IA certamente será diferente. Por exemplo, um estudo do Inside Higher Ed com estudantes americanos descobriu que 85% usaram ferramentas generativas em seus estudos em algum grau no último ano. Até que ponto a sinceridade dos jovens que responderam às pesquisas deve ser confiável é uma questão à parte, mas a esmagadora maioria dos entrevistados relatou que recorreu a bots de IA exclusivamente para testar suas próprias ideias e gerar novas (brainstorming), para obter ajuda com a auto-organização (ajuda de tutoria) e para se preparar melhor para exames. Apenas 25% admitiram delegar amplamente tarefas a modelos generativos, com 19% usando IA para gerar testes/trabalhos de curso (redações) inteiramente. Curiosamente, a porcentagem de alunos que se opõe fortemente à verificação obrigatória — “se a IA gerou este trabalho” — foi mais que o dobro, chegando a 53%: os alunos prefeririam aprender “o uso ético da inteligência artificial”. Essa diferença marcante sugereDe fato, muito mais entrevistados usam bots ativamente para concluir tarefas acadêmicas do que estão dispostos a admitir abertamente. Dos entrevistados, 35% não veem prejuízos nem benefícios em modelos generativos para sua aprendizagem, enquanto 23% acreditam que o conhecimento adquirido na faculdade será mais valioso na era da IA ​​do que teria sido antes. É instrutivo comparar esse otimismo com a situação atual do mercado de trabalho americano, discutida no início deste artigo.

“Vamos lá, juntem-se! Matrizes não se multiplicam!” (Fonte: Geração de IA baseada no modelo FLUX.1)

⇡#A China não está desacelerando

Quão atrás está a China na indústria de microprocessadores — ok, talvez até atrás de Taiwan, o que é quase completamente desconhecido (a TSMC responde por mais de 70% da receita global com a fabricação de chips personalizados), mas pelo menos atrás dos Estados Unidos, cuja líder em semicondutores, a Intel, ainda não consegue dominar as tecnologias de processo avançadas que a Nvidia exige? Há cerca de um ano, a agência analítica americana ITIF estimou a lacuna objetiva que ainda existe em cinco anos. Em setembro de 2025, o fundador e CEO da Nvidia, Jensen Huang, já falava — embora com certa emoção, mas ainda assim — sobre os meros nanossegundos que separam os desenvolvedores chineses de chips de IA dos americanos. A questão não é o domínio formal de certas tecnologias de processo por certos fabricantes, mas sim o fato de a Intel continuar enfrentando dificuldades estratégicas (principalmente com a contratação de mão de obra qualificada), apesar de atrair com sucesso financiamento tanto do governo quanto de potenciais clientes futuros. Na China continental, enfatizou Huang, há muitos especialistas talentosos e uma forte tradição de trabalho árduo. Além disso, a vasta população da China permite que as diversas províncias do país compitam entre si, facilitando o rápido aprimoramento e a implementação de inovações tecnológicas — enquanto Estados Unidos, Taiwan, Coreia do Sul e, em menor grau, o Japão são forçados a depender essencialmente da mesma linha de equipamentos litográficos da empresa holandesa ASML.

Como que para confirmar esses pontos,Este mês, a Huawei anunciou sua intenção de criar “o cluster de IA mais poderoso do mundo” — baseado, é claro, em seus próprios aceleradores Ascend 950. O cluster, com lançamento previsto para 2026, deverá incluir mais de meio milhão de chips de IA, com um componente separado, um “supernó” com 8.192 aceleradores, que deverá superar o sistema Nvidia NVL144 (também com lançamento previsto para o próximo ano) em mais de seis vezes em poder computacional. A Huawei não está sozinha na ameaça à posição da Nvidia no mercado chinês e, provavelmente, no mercado global de soluções de servidores de IA. Outra gigante chinesa de TI, a Alibaba, desenvolveu um chip especializado, o T-Head PPU, que se afirma ser comparável em desempenho ao Nvidia H20. Considerando que as autoridades chinesas começaram a proibir diretamente empresas locais de importar aceleradores de IA de design americano (que, apesar da proibição do Departamento de Comércio dos EUA, continuaram a entrar no país por um longo período), a decepção do Sr. Huang é compreensível: quanto mais intensa a concorrência de microprocessadores no segmento de IA para servidores, menor será a receita da Nvidia. Consequentemente, os gastos com P&D diminuirão, o que, por sua vez, desacelerará o ritmo de desenvolvimento da atual líder neste segmento — e dará aos que estão se recuperando uma vantagem muito desejada. Especialmente porque o tempo restante é de apenas nanossegundos.

“E aqui vai outra história: fomos a um bar com o Kurt Cobain…” (Fonte: Geração de IA baseada no modelo FLUX.1)

⇡#Senta, escuta

O termo ofensivo “jargão de IA” é aplicado principalmente aos resultados do processamento generativo de sugestões não tão inteligentes elaboradas pelos próprios usuários — essencialmente, uma clássica situação de “De quem você está rindo?”. Mas e se a inteligência artificial fosse incumbida — depois, é claro, de configurá-la corretamente — da tarefa de entreter e educar? Talvez seja exatamente essa a ideia que veio à mente dos criadores da atualização mais recente da plataforma YouTube Music, que, no final de setembro, introduziu DJs de IA como parte do programa Labs. Eles têm a tarefa de “enriquecer a experiência auditiva” da música transmitida por streaming, incorporando “histórias divertidas, fatos interessantes de fãs e comentários espirituosos” relacionados a uma faixa específica ao contexto musical. Também foi especificado que o AI DJ realizará suas atividades educativas e de entretenimento não entre as músicas, mas sobrepondo parcialmente sua voz, como é prática comum em um número significativo de rádios. Além disso, após a implementação da nova funcionalidade no aplicativo YouTube Music, será possível desativá-la pressionando um botão especial, apenas por uma hora ou até o final do dia atual, mas não permanentemente. Pelo menos, é assim que o AI DJ se comporta em sua primeira versão semiexperimental, disponível apenas para usuários selecionados nos Estados Unidos.

Especialistas temem que o próximo passo — talvez não imediatamente, mas com o tempo — possa muito bem ser a integração da publicidade diretamente às mensagens generativas.Apresentador de rádio. Curiosamente, nas décadas de 1970 e início de 1980, muitas rádios FM comerciais nos EUA e em outros países atraíram ouvintes (que antes sintonizavam rádios AM por hábito) transmitindo álbuns inteiros sem comerciais — cientes de que as faixas provavelmente seriam gravadas por fãs, o que acabaria reduzindo as vendas em mídias legais. No entanto, como as próprias rádios não recebiam uma parte dessas vendas, atrair novos ouvintes regulares era visto como uma prioridade maior. De fato, a conversa dos apresentadores de rádio durante os intervalos antes e depois do canto propriamente dito, conhecida na gíria profissional como “conversar com o correio”, surgiu, segundo uma teoria, como um meio de eliminar a própria possibilidade de gravar uma faixa completa quando as gravadoras começaram a negociar termos diferentes com as rádios. Assim, parece que, com o advento dos DJs de IA, a espiral dialética das transmissões musicais está tomando outro rumo — desta vez no espaço digital.

“Bem, aí está. Derramou de novo. Começando tudo de novo, hein?” (Fonte: Geração de IA baseada no modelo FLUX.1)

⇡#Um mundinho aconchegante para a superinteligência da IA

Uma das razões pelas quais os modelos generativos tendem a alucinar com relativa frequência é a falta de um ciclo de feedback rígido que geraria sinais de “recompensa” e “punição” para soluções corretas e incorretas, respectivamente. Esse mecanismo em si não é tão complexo — até mesmo bactérias têm sistemas sensoriais de estímulo-resposta. O problema é que os organismos vivos desenvolveram esse tipo de comportamento ao longo de bilhões de anos de evolução, interagindo com seu ambiente, enquanto a IA existe, literalmente como o velho meme, esférica no vácuo. Na melhor das hipóteses, um humano adicionaria um aviso ao seu sistema para não retornar receitas de nitroglicerina em resposta a solicitações de usuários e proibiria a representação de celebridades em imagens geradas, mas é só isso. Esse aditivo será externo, forçando a IA a ignorar “conscientemente” alguns dos dados inseridos durante o processamento do conjunto de dados de treinamento — e esse abuso da mente da máquina só aumentará a probabilidade de alucinações. Ou o próprio conjunto de dados terá que ser completamente podado antes do início do treinamento, mas, neste caso, a visão de mundo formada pela rede neural multicamadas começará a revelar lacunas ainda mais absurdas.

É por isso que os principais players do mercado de IA — Google, a extremista Meta*, Nvidia e outros — estão cada vez mais se esforçando para treinar seus novos modelos não em conjuntos de dados, mas no que é chamado de natureza viva. Não na natureza real, mas em uma altamente simulada.plausibilidade, até mesmo as leis da física, em um ambiente virtual — no chamado modelo mundial. Isso também ajudará muito o desenvolvimento da robótica verdadeiramente autônoma, que desacelerou consideravelmente desde o aumento do interesse em IA há três anos. A razão é clara: o modelo generativo que controla o robô, na ausência de feedback da realidade, continua a alucinar, muitas vezes levando a consequências indesejáveis. Se tal feedback for implementado — por exemplo, introduzindo um circuito de retreinamento para o modelo que seja ativado sempre que o robô realizar uma ação insegura para si mesmo e/ou seu ambiente — a estrutura física da máquina cara sofrerá (para gerar um sinal corretivo). Isso é caro e requer um tempo considerável para desenvolver uma resposta estável: afinal, é impossível prever em que ponto o sistema começará a alucinar. Um ambiente virtual no qual a IA controla um avatar, desenvolvendo e fortalecendo naturalmente as relações estímulo-resposta por meio de interações com objetos virtuais regidos pelas leis da física terrestre, é ideal para gerar feedback eficaz. Os desenvolvedores acreditam que esse caminho é precisamente o que leva à cobiçada “superinteligência da máquina” — a proverbial IA forte.

“Este é seu. Pessoal. E aqui está minha carteira OpenAI!” (Fonte: Intel)

⇡#UmAceleradorParaTodos! Ah, não, não comigo, não comece…

De quantos aceleradores de IA poderosos o planeta inteiro precisará para resolver com eficácia os crescentes problemas generativos que os humanos enfrentam continuamente? De acordo com Greg Brockman, presidente da OpenAI, a questão é muito simples: um para todos — e um extra, só por precaução —, totalizando cerca de dez bilhões. Sam Altman, CEO da mesma empresa, apoia prontamente seu colega, afirmando que a colaboração da OpenAI com a Nvidia para atingir esse nobre objetivo, se considerarmos sua importância para a humanidade, será mais importante do que o programa lunar dos EUA, que foi uma conquista verdadeiramente grandiosa da segunda metade do século passado (tão grandiosa que um novo pouso em nosso satélite natural permanece indefinido, muitas décadas depois). “Vocês realmente vão querer que todos tenham sua própria GPU dedicada”, insiste Brockman, afirmando que o mundo está caminhando constantemente para um estado em que a economia é impulsionada pela computação, e a IA dedicada baseada em agentes trabalha diligentemente e, mais importante, proativamente (ou seja, definindo e alcançando metas de forma independente) para cada indivíduo, mesmo enquanto dormem. É claro que, reconhece o presidente da OpenAI, atingir essa meta ambiciosa será desafiador: o poder computacional necessário, em sua estimativa, para criar um “supercérebro” generativo excede o que está atualmente disponível em três ordens de magnitude, portanto, ainda há muito espaço para melhorias. De fato,A questão é que o poder despendido na resolução de problemas urgentes de IA — o equivalente a teraflops de servidores nos respectivos data centers — deve se tornar uma nova moeda de fato, já que agentes generativos de todos os tipos estão fadados a se tornar tão essenciais para todos quanto o ar.

Resta saber se isso realmente acontecerá. A única questão é qual marco a humanidade cruzará primeiro: a criação do infame “supercérebro” ou a emergência da OpenAI como um empreendimento lucrativo?

________________

* Incluída na lista de associações públicas e organizações religiosas para as quais um tribunal emitiu uma decisão final e vinculativa para liquidar ou proibir suas atividades com base nos fundamentos estipulados pela Lei Federal nº 114-FZ de 25 de julho de 2002, “Sobre o Combate à Atividade Extremista”.

admin

Postagens recentes

Uma fonte interna revelou detalhes de uma nova franquia no universo de God of War — o papel principal não será de Kratos, nem mesmo de Atreus.

A editora Sony Interactive Entertainment e os desenvolvedores do estúdio americano Santa Monica Studio (série…

57 minutos atrás

O processador AMD Ryzen 5 5500X3D é vendido quase oficialmente na China.

No verão passado, o acessível processador Ryzen 5 5500X3D inaugurou a linha de processadores com…

57 minutos atrás

Espera-se que o modelo de IA mais recente, DeepSeek V4, seja otimizado para aceleradores de computação chineses.

Segundo o Financial Times, esta semana a DeepSeek, empresa chinesa, deverá apresentar seu tão aguardado…

1 hora atrás

O Pentágono e a Anthropic tentaram salvar o acordo até o último minuto.

Na semana passada, um escândalo eclodiu em torno da colaboração da Anthropic com o Departamento…

2 horas atrás

O CEO da OpenAI afirma que empresas privadas não podem ter mais poder do que o governo dos EUA.

Na sexta-feira à noite, Sam Altman anunciou que a OpenAI, sua empresa, havia garantido um…

3 horas atrás