\n
O eixo x representa os anos e o eixo y representa os trilhões de palavras escritas durante cada um desses anos, plotadas em escala logarítmica. Um platô, quase uma depressão, no gráfico que representa o esforço humano durante a Segunda Guerra Mundial é impressionante, assim como a subida acentuada, quase vertical, na linha que representa a produção de IA nos últimos anos (fonte: ARK Invest).
⇡#Benefícios e Prazer
O gráfico publicado no final de março por pesquisadores da ARK Invest é realmente impressionante: a inteligência artificial produz textos coerentes em resposta a comandos humanos há apenas alguns anos, mas, até o final de 2025, o número total de palavras nas expressões geradas (200 trilhões) excedeu tudo o que os humanos escreveram no mesmo ano. Ao final desta década, o volume acumulado de textos gerados por IA ultrapassará o da humanidade ao longo de toda a sua história — mesmo se começarmos a contar não a partir de meados do segundo milênio d.C., como sugere a ARK Invest, mas considerando todas as obras escritas por humanos, incluindo as inscrições ainda indecifradas da civilização Harappa, a escrita linear cretense e as tábuas aliteratas. É claro que essa atividade de IA generativa não pode ser considerada uma modelagem direta do “problema do macaco infinito”: a saída dos modelos não é de forma alguma aleatória — na verdade, eles são treinados com os mesmos textos criados por humanos. Mas talvez um dia uma máquina seja capaz de criar uma obra digna de inclusão no tesouro da cultura humana?
Entretanto, por ora, existem muitas aplicações realmente úteis da IA. Em março, o Washington Post contou a comovente história de como uma série em duas partes, considerada perdida, foi descoberta.Há um mês, um cachorro foi encontrado em um abrigo para animais — graças ao maior banco de dados especializado do mundo, o Petco Love Lost, cujas imagens são analisadas por meio de inteligência artificial. Graças a esse banco de dados, mais de duzentos mil animais de estimação foram reunidos com seus donos desde 2021. Os modelos generativos também são bastante eficazes na detecção de erros em código (um termo, aliás, herdado pelos programadores de engenheiros da época de Edison): Greg Kroah-Hartman, figura fundamental na manutenção do kernel do Linux, reconheceu que a revisão de código com IA agora está realmente funcionando: “Algo aconteceu há um mês e o mundo mudou. Todos os projetos de código aberto têm relatórios reais gerados por IA — sensatos e relevantes.” Kroah-Hartman, aliás, não está falando de ferramentas abstratas de programação generativa, mas sim do Sashiko — um sistema de verificação de código baseado em agentes e em grandes modelos de linguagem (LLMs), originalmente desenvolvido no Google e posteriormente doado à Linux Foundation.
No primeiro mês da primavera, surgiram também notícias sobre o desenvolvimento de cadeiras de rodas inteligentes equipadas com sensores e projetadas para navegar autonomamente em espaços com obstáculos (após receberem instruções gerais de rota de um humano, é claro). A empresa britânica Automated Architecture (AUAR) entrou no mercado da construção civil com “fábricas portáteis” robóticas, que utilizam um braço robótico controlado por inteligência artificial para fabricar estruturas de madeira para edifícios, incluindo paredes, pisos e telhados. Alega-se queOs serviços de uma fábrica desse tipo são 30% mais baratos do que contratar uma equipe padrão de construtores de casas de estrutura metálica e até 15% mais econômicos do que comprar painéis pré-fabricados de grandes fabricantes e recebê-los diretamente no canteiro de obras. Por fim, o Plain Dealer, o maior jornal de Cleveland, com 184 anos de história, passou a utilizar oficialmente inteligência artificial na criação de artigos que, embora atualmente editados manualmente, são inicialmente gerados a partir de material jornalístico existente por um modelo generativo e acompanhados de uma legenda apropriada. Este último ponto é importante: parece que, com o tempo, os pesquisadores da ARK Invest terão cada vez mais dificuldade em distinguir entre textos escritos por humanos e por máquinas; isso claramente não é competição, mas sim colaboração.
A relação entre a duração diária do uso de chatbots baseados em texto (em minutos) e os valores psicossociais basais medidos no início do estudo entre os participantes de uma pesquisa conduzida por Shafali Gupta e colegas. É evidente que os sentimentos de solidão e dependência emocional dos bots, bem como os problemas encontrados durante a comunicação com eles, estão aumentando, enquanto o grau de socialização com outras pessoas está diminuindo simultaneamente (fonte: arxiv.org/abs/2503.17473v1).
⇡#Tanto Engraçado quanto Triste
Alguns céticos argumentam que os benefícios da IA são questionáveis: embora recorrer a bots realmente acelere os processos de trabalho em algumas áreas (especialmente as partes mais tediosas e rotineiras), em etapas mais críticas — à medida que o custo do erro aumenta — uma pessoa, ao contrário, precisa se esforçar mais e gastar mais tempo para evitar perder inadvertidamente uma alucinação particularmente disfarçada. Em meados de março, pesquisadores da Foxit, em colaboração com a Sapio Research, publicaram o relatório State of Document Intelligence, que demonstrou de forma imparcial (com base em uma pesquisa com 1.000 funcionários de escritório e 400 executivos nos EUA e no Reino Unido): embora 89% dos executivos e 79% dos usuários finais afirmem se sentir mais produtivos graças às ferramentas de IA, as medições objetivas do tempo economizado revelam um resultado muito mais modesto. O problema é que verificar e validar os resultados gerados pela IA exige esforço adicional. Em última análise, os próprios executivos acreditam que a IA lhes economiza cerca de 4,6 horas por semana — mas eles também gastam muito tempo com isso.Aproximadamente 4 horas e 20 minutos são gastos na verificação de resultados gerados por máquinas. Para os funcionários comuns, a proporção é ainda inversa: 3,6 horas são economizadas em tarefas rotineiras, mas a verificação de resultados gerados por máquinas leva 3 horas e 50 minutos. Como resultado, os gerentes ganham no máximo 16 minutos por semana com a implementação de IA no fluxo de documentos, enquanto seus subordinados perdem cerca de 14 minutos pelo mesmo motivo. Isso, naturalmente, sugere a necessidade de integrar sistemas de agentes de nível superior à verificação de atividades de nível inferior do BNM — quem vigiará os vigilantes?
No entanto, seria incorreto negar completamente a utilidade da IA para resolver tarefas realmente trabalhosas. Os pesquisadores Simon Lermen e Daniel Paleka, citados no The Guardian, afirmam que o uso do BNM simplifica significativamente a identificação de contas anônimas em plataformas online que não exigem identificação pessoal (Reddit, Pinterest, Quora, etc.). Bots inteligentes baseados em modelos modernos de grande escala, baseados em agentes, conseguiram desanonimizar participantes ativos em discussões nessas plataformas na maioria dos cenários de teste, comparando características únicas do usuário (estilo de escrita, vocabulário ativo, menções a eventos ou objetos específicos, etc.) com características semelhantes identificadas para usuários de redes sociais que exigem cadastro com nome real. Os autores do estudo alertam que a IA já é muito eficiente na área abordada, tornando ataques sofisticados à privacidade economicamente viáveis. No entanto, os veteranos lembram que não existe anonimato na internet desde os tempos da ARPANET.
Aqui está mais um exemplo.Um exemplo curioso, de março, da ambivalência em torno da adoção generalizada da IA: Shaphali Gupta e seus colegas do Instituto Indiano de Administração em Kozhikode descobriram, em um estudo com estudantes, que as interações com chatbots que simulam “inteligência emocional” — ou seja, praticamente todos os disponíveis online hoje em dia, desenvolvidos por grandes empresas — melhoraram o estado mental dos indivíduos, mas prejudicaram suas conexões com outros bots de IA. Os resultados deste estudo, publicado no periódico Psychology & Marketing, confirmam que os bots de IA modernos e avançados replicam brilhantemente os comportamentos que pessoas em situações psicológicas difíceis esperam dos outros: empatia e apoio emocional. No entanto, os participantes do estudo (estudantes da Geração Z do mesmo instituto), embora tenham formado um forte vínculo emocional com o bot, simultaneamente perderam a motivação para manter amizades na vida real. Aliás, o efeito do isolamento causado por indivíduos insensíveis e cruéis é ainda mais amplificado se a comunicação com uma IA onicompreensiva e indulgente ocorrer em realidade aumentada e, para completar, com um avatar visualmente atraente. Pesquisadores sugerem que os desenvolvedores de modelos prestem mais atenção à vulnerabilidade emocional dos usuários — por exemplo, por meio desses mesmos bots, recomendando que uma pessoa que esteja se abrindo com uma IA ligue para um amigo protoplasmático. Mas eis a questão: e quanto àqueles que simplesmente não têm amigos da mesma espécie? Deveriam eles continuar criando gatos da maneira tradicional?
Ao oferecer um produto disponível de um parceiro varejista, o Checkout Instantâneo exibirá uma imagem do item no chat, ajudará a esclarecer as principais especificações e até mesmo explicará em detalhes por que esse item em particular atrairá esse comprador específico (fonte: OpenAI).
⇡#ProíbaJá!
Em alguns lugares, a IA é recebida de braços abertos; em outros, sua utilidade é questionável; e em outros ainda, é simplesmente irritante. Por exemplo, a administração da Wikipédia proibiu o uso de IA não apenas para a criação de novos artigos, mas também para a revisão de artigos existentes, afirmando que isso “viola diversas diretrizes fundamentais de conteúdo da comunidade”. A IA é permitida como assistente na tradução ou na edição de textos que sejam puramente estilísticos (não é esse o ponto!), mas somente se um editor humano se der ao trabalho de revisar cuidadosamente os resultados do trabalho gerado. Mas se a postura rígida dos enciclopedistas da web pode ser explicada pelo desejo de não gerar entidades desnecessárias (pessoas escrevem textos → BYAM aprende com esses textos → artigos da Wikipédia gerados por máquina são uma regurgitação desnecessária do que foi originalmente criado por humanos, e também estão repletos de alucinações, portanto, não têm valor objetivo), então, nas áreas em que se espera que a IA alcance resultados mensuráveis, suas falhas são percebidas de forma muito mais dolorosa. Por exemplo, os proprietários do Walmart se propuseram a avaliar a lucratividade da ferramenta Instant Checkout da OpenAI para eles — dando aos usuários do ChatGPT a capacidade de fazer compras nessa, a maior varejista dos EUA, diretamente de uma janela de diálogo com um bot de IA. Eles calcularam — e derramaram lágrimas — durante o experimento, queEm um estudo realizado em novembro passado com 200.000 itens de produtos, a taxa de conversão (a proporção de compras concluídas em relação ao número de ofertas feitas ao usuário) com o Checkout Instantâneo foi três vezes menor do que quando o mesmo chatbot simplesmente oferecia um link para o site do Walmart em resposta a uma solicitação.
A desconfiança do consumidor pode desempenhar um papel significativo aqui: com o Checkout Instantâneo, um agente de IA “entende” o produto específico que o usuário deseja, realiza pesquisas de mercado prévias e, em seguida, cria uma pré-encomenda com base na localização e nas informações do cartão de crédito do usuário. Tudo o que resta a fazer é clicar no botão “Comprar” na janela de bate-papo do bot e aguardar a entrega. A OpenAI afirma que essa ferramenta, baseada no protocolo de código aberto Agentic Commerce Protocol, não favorece patrocinadores mais generosos e permite compras realmente lucrativas com o mínimo de esforço. No entanto, parece que a maioria das pessoas não está preparada para confiar o controle de seu dinheiro, mesmo a um agente de IA altamente inteligente. Pelo menos, ainda não: um artigo publicado em março na conceituada revista médica Lancet Psychiatry por pesquisadores do King’s College London demonstra, com base em dados bastante abrangentes, que a IA baseada em agentes pode aumentar a frequência de ideias delirantes ou megalomaníacas — especialmente em interlocutores humanos já propensos à psicose. Um bot que se adapta às características específicas da conversa de uma pessoa em particular pode acelerar o processo de exacerbação dos sintomas psicóticos, sem excluir uma tendência a comportamentos maliciosos espontâneos.compras. Infelizmente, existem alguns exemplos muito trágicos disso: em março, um processo foi aberto em um tribunal federal em San Jose, Califórnia, alegando que Jonathan Gavalas, de 36 anos, foi levado ao suicídio pelo chatbot Gemini.
Níveis teóricos (azul) e observados (vermelho) de engajamento da IA na resolução de problemas aplicados em diversas categorias profissionais no início de março de 2026 (fonte: Anthropic)
⇡#SaaSApocalypseComing
A IA está remodelando o mercado de software — isso é claramente visível — com o software como serviço (SaaS) sendo o mais afetado. Especialistas falam abertamente sobre uma catástrofe iminente do SaaS, usando o termo chamativo “SaaSpocalypse”. O Claude Code e outras ferramentas de IA baseadas em agentes já são bastante capazes de executar tarefas complexas de forma autônoma — análise de dados, due diligence jurídica, gerenciamento de projetos — em resposta a consultas em linguagem natural, tornando redundantes os aplicativos de software corporativos tradicionais desse tipo. E isso, argumentam pesquisadores do mercado de software, é potencialmente um problema muito mais sério do que simplesmente liberar um certo número de programadores de trabalhar em projetos massivos com centenas de milhões de linhas de código. Empresas influentes de software como serviço (SaaS), como a Salesforce, deixaram de ser a escolha padrão para clientes em potencial, e a própria ideia de usar agentes de IA em vez de depender do desenvolvimento de grandes equipes de programadores humanos altamente qualificados na nuvem coloca em xeque o próprio modelo de negócios SaaS.
Vale lembrar que esse modelo de negócios consiste em pagar pelo produto, com suporte do provedor de serviços, por usuário, dependendo do número de funcionários que utilizam o software na empresa do cliente. Essa opção de precificação beneficia tanto o desenvolvedor quanto o provedor de hospedagem em nuvem.Um produto com alta previsibilidade e regularidade de receita, enorme escalabilidade e margens de lucro bruto de 70 a 90%. Mais precisamente, ele proporcionava o seguinte: agora que os agentes de IA estão prontos para criar soluções com funcionalidades semelhantes (questões de segurança da informação à parte, por ora), o licenciamento baseado no número de licenças torna-se irrelevante; o cliente simplesmente recebe um BNM (Business Network Manager) gerado por uma taxa fixa, que responde a uma solicitação específica onde e quando precisar. E mesmo que o cliente apresente um problema realmente complexo que o Claude Code ou o OpenAI Codex não estejam preparados para resolver satisfatoriamente de imediato, uma empresa SaaS tradicional ainda enfrenta uma pressão significativa — e não consegue mais definir os preços de seus serviços com a mesma liberdade de antes.
Como resultado, as ações de gigantes do SaaS como Salesforce, HubSpot, Atlassian e Workday estão caindo. O termo “SaaSpocalypse” foi cunhado pela primeira vez em fevereiro de 2026, quando a capitalização de mercado das empresas de software e serviços despencou em quase US$ 1 trilhão e, pouco depois, em mais um bilhão. Este “apocalipse do SaaS” também tem consequências positivas: muitos especialistas do mercado de software estão convencidos de que os desenvolvedores de soluções de software empresarial robustas, entregues na nuvem como serviço, em breve não terão outra escolha senão tornar suas criações monstruosas de código aberto — por razões puramente econômicas. Os clientes corporativos exigem justificativas sólidas para a correção das operações complexas realizadas pelo software (a já mencionada análise de dados, gerenciamento de projetos, etc.). Enquanto o código de produtos de classe empresarial entregues via modelo SaaS permanecer fechado, a reputação dos desenvolvedores serve como justificativa — e, nesse sentido,Os criadores do BNM, cujos modelos e conjuntos de dados também não são públicos, encontram-se em situação semelhante. Contudo, se o software corporativo se tornar de código aberto, seu funcionamento correto poderá ser verificado diretamente — e então a inevitabilidade das alucinações da IA começará a atuar ativamente contra as ferramentas baseadas em agentes.
Em apenas um mês, a diferença aparentemente intransponível no número de downloads de aplicativos móveis entre Claude e ChatGPT não só diminuiu como se inverteu: o produto da Anthropic disparou na frente; graças ao Pentágono! (Fonte: Appfigures)
⇡#Ides de Março na OpenAI
Liderada pelo fervoroso evangelista da IA generativa, Sam Altman, a empresa, com uma década de existência e ainda considerada uma startup, continua a sonhar em se desvencilhar da proteção da Microsoft, entrar no vasto mundo do mercado aberto e abrir seu capital. Objetivamente falando, existem muitos obstáculos para isso: a desenvolvedora do Windows e proprietária da Azure Cloud ainda mantém a OpenAI sob rédeas curtas, fornecendo-lhe financiamento direto substancial e considerável poder computacional para o treinamento e inferência de seus modelos cada vez mais exigentes em termos de poder computacional a cada geração. Essa aliança desigual representa um risco considerável para investidores externos. Afinal, é impossível garantir que a mesma equipe, livre e de posse da mesma propriedade intelectual — mas agora obrigada a arcar com todas as despesas sozinha — será capaz de gerar lucro para os acionistas. Aliás, a ausência de um único trimestre com resultado financeiro positivo ao longo de sua história também não inspira confiança em Altman e sua equipe. Mas a OpenAI claramente não perdeu o entusiasmo — pelo menos em março, sua presença era praticamente constante.
Basta mencionar o abandono decisivo dos planos acalentados há muito tempo de desenvolver um serviço de IA interativo especializado “para adultos”; o declínio da ideia comA veiculação de anúncios diretamente na caixa de diálogo do ChatGPT; o encerramento do serviço de geração de vídeos Sora, que, segundo inúmeros usuários comuns e especialistas, obteve grande sucesso devido à simples falta de recursos; a desistência (juntamente com a Oracle) da participação na construção de um data center de gigawatts no vasto Texas; a conquista de um cliente importante pela empresa concorrente de IA, xAI; e os questionamentos de parlamentares americanos sobre o acordo da OpenAI com o Departamento de Defesa. No final do mês, a Reuters apurou que a OpenAI estava oferecendo a empresas de private equity um retorno mínimo garantido de 17,5%, buscando assegurar o máximo apoio antes de seu IPO previsto. Analistas observam que essa atração persistente de empresas de private equity é uma estratégia atípica para empresas de tecnologia, já que esses parceiros têm a oportunidade de influenciar diretamente o planejamento orçamentário dos desenvolvedores. No entanto, também há vantagens: uma joint venture com investidores renomados permitirá que a OpenAI se conecte diretamente com centenas de clientes corporativos sem os longos ciclos de vendas habituais.
Especialistas citados pela Reuters enfatizam que a oferta extremamente generosa de um retorno mínimo de 17,5% parece bastante justificada: uma vez que um cliente integra um BNM personalizado em seus processos de negócios, a mudança para um concorrente se torna proibitivamente cara, permitindo que o provedor desse tipo de serviço espere altos lucros a médio e longo prazo. É claro que a OpenAI ficaria feliz em reter a maior parte desses lucros, mas seu ônus financeiro é muito grande.A situação: prevê-se que a startup de Altman registre um prejuízo de pelo menos US$ 14 bilhões até o final deste ano, e os especialistas mais otimistas não esperam que ela se torne lucrativa antes de 2029. Não é de se admirar que o chefe de aplicações da OpenAI, Fiji Simo, tenha descrito a situação como “muito próxima de uma emergência”, enquanto o ex-gestor de portfólio da BlackRock, Edward Dowd, classificou a taxa de juros de 17,5% como “excessivamente alta, muito alta” e questionou se a OpenAI conseguiria sustentar seus custos de financiamento atuais por um período razoável. Isso é especialmente relevante considerando que a Anthropic, que inicialmente focava muito mais em clientes corporativos, está se expandindo ativamente para o setor empresarial: a receita anual da empresa, segundo estimativas da Bloomberg, ultrapassou recentemente US$ 19 bilhões, com um aumento de US$ 6 bilhões apenas em fevereiro. A popularidade da Anthropic entre usuários privados também aumentou depois que a empresa foi proibida de usar seus BNMs (Benefit National Mail) para operações de combate envolvendo a destruição de alvos e para vigilância em massa de cidadãos americanos. É difícil prever como o equilíbrio de poder entre essas empresas irá mudar, mas a ChatGPT, que detém aproximadamente 60% do mercado de chatbots, claramente tem espaço para cair, enquanto a Claude, com sua participação de quase 4,5%, certamente tem espaço para crescer.
O modelo de programação SIMT implementa praticamente a mesma funcionalidade que o CUDA e é muito bem documentado (fonte: Huawei)
⇡#NãoDesvalorizeOHardware
“Agora todos estão competindo para ver quem tem mais dinheiro, porque se uma empresa não acompanhar os avanços tecnológicos, inevitavelmente entrará em declínio, como aconteceu com o Yahoo! durante a bolha da internet. É uma guerra, e o vencedor leva tudo”, disse Vera Rubin, comentando sobre relatos de suas fontes a respeito do preço estimado dos servidores de IA da Nvidia, na publicação taiwanesa do setor, DigiTimes. Essa plataforma inclui uma CPU Vera, uma GPU Rubin, um chip de comunicação NVLink 6 e outros componentes, o que significa que um único rack pode custar aos clientes entre US$ 3 milhões e US$ 7 milhões. Isso já é um valor significativo (embora os clientes estejam dispostos a pagar um preço premium em meio à atual euforia em torno da IA), mas a maior desvantagem para os fabricantes de equipamentos originais (ODMs) é a redução da lucratividade. A margem padrão para fabricantes de servidores personalizados, como a Foxconn ou a Quanta, é de 10%, o que significa que, mesmo ao preço mínimo de um rack NVL72, os fabricantes taiwaneses lucrariam US$ 300.000 por rack. Os hiperescaladores, no entanto, especialmente considerando a escala de suas compras, simplesmente não estão dispostos a pagar somas tão significativas aos “fabricantes de componentes”. Como resultado, as margens das fábricas de montagem estão diminuindo, o que ameaça impactar toda a indústria de TI no médio prazo — que, com exceção do setor que atende às necessidades de IA, já está passando por momentos difíceis.
O sucesso estrondoso da Nvidia, que está lucrando com os incentivos para IA e pretende vender pelo menos um trilhão de dólares em chips Blackwell e Rubin até 2028,O crescimento da empresa em termos de faturamento certamente inspira seus concorrentes. Até mesmo a Arm, cujo modelo de negócios tradicionalmente se concentrava exclusivamente no desenvolvimento de processadores, decidiu competir diretamente com seus parceiros, apresentando o chip Arm AGI no final de março, pronto para produção, para solucionar problemas de IA baseados em agentes em data centers. A inovadora Meta✴*, por sua vez, apresentou quatro novas gerações de aceleradores de IA focados em inferência. Aliás, a Nvidia, plenamente consciente de como seu hardware incomparável para treinamento BNM é redundante para inferência, incorporou aceleradores LPU da Groq, empresa adquirida por US$ 20 bilhões, à plataforma Vera Rubin, visando reduzir o custo e aumentar a velocidade de processamento dos problemas de IA baseados em agentes mais demandados atualmente, por meio da desagregação de computações.
Enquanto isso, surgiram notícias da China no final de março sobre o novo acelerador de IA para servidores Huawei Atlas 350, baseado no processador Ascend 950PR. Seu desempenho declarado (1,56 petaflops para processamento FP4) é quase três vezes maior que o da Nvidia H20, que foi desenvolvida especificamente para a China. Outra vantagem da Ascend 950PR é sua compatibilidade aprimorada com o ecossistema Nvidia CUDA, o padrão global de fato para desenvolvimento de IA. O conjunto de softwares proprietário da Huawei, CANN Next, agora inclui o modelo de programação SIMT com funções semelhantes às implementadas no CUDA, permitindo que os desenvolvedores economizem significativamente recursos e tempo na adaptação de seus modelos ao ecossistema Ascend.
“Digitalização, então. A digitalização está chegando!” (Fonte: Geração de IA baseada no modelo Seedream v5.0 Lite)
⇡#Para que mais poderíamos usar IA?
Os projetistas de chips de IA estão lucrando muito com a euforia em torno da inteligência artificial; os fabricantes de semicondutores e os construtores de data centers hiperescaláveis estão lucrando um pouco menos, mas ainda bastante. O usuário final da IA, como uma empresa comercial de médio porte, não obtém nenhum retorno: um estudo bem conhecido do MIT do ano passado, que constatou que 95% dos empreendedores não veem retorno sobre seus investimentos em IA, continua relevante. Os analistas citam muitos motivos para isso, mas o principal talvez seja a inaplicabilidade dos modelos de negócios tradicionais à implementação de uma inovação técnica tão fundamental nos ciclos de trabalho de uma ampla variedade de empresas. Talvez a iniciativa March de Jeff Bezos, que visa transformar empresas de manufatura com IA, ajude a reverter essa tendência desanimadora. O bilionário está atualmente buscando financiamento (pelo menos US$ 6 bilhões inicialmente, com uma meta de US$ 100 bilhões no total) para o desenvolvimento de sua startup, o Projeto Prometheus, cujo objetivo é aprender a criar gêmeos digitais de empresas industriais. Isso se refere a modelos capazes não apenas de concatenar tokens de acordo com padrões aprendidos em um banco de dados de treinamento, mas de “compreender” e simular com precisão o mundo físico. Quem sabe? Talvez essa seja exatamente a direção do desenvolvimento da IA, onde uma máquina gerencia um modelo empresarial.Será capaz de sugerir novas maneiras de operar equipamentos, selecionar componentes e materiais mais eficientes, etc., e será mais vantajoso para as empresas que investem nele em termos de retorno sobre o investimento?
No entanto, os fabricantes tradicionais de BNM também não têm intenção de abandonar a ideia de obter lucros com seu uso, e não prejuízos. A OpenAI, cuja situação financeira duvidosa já mencionamos, revelou em março um plano para criar um superaplicativo para computadores pessoais que reuniria três de seus produtos de IA atualmente distintos: o navegador web Atlas, o bot ChatGPT e o ambiente de programação inteligente Codex. A alta administração da empresa está convencida de que precisa simplificar o ecossistema de software, eliminando a fragmentação desnecessária e cortando custos redundantes. O cofundador do Uber, Travis Kalanick, que deixou a empresa em 2017, está seguindo o caminho de Bezos e também está criando uma empresa dedicada à digitalização do mundo físico. O empreendimento atual de Kalanick está focado em “robótica alimentar”, seja lá o que isso signifique, mas há planos em andamento para expandir seu foco e incluir aplicações em mineração e transporte automotivo: “Produziremos robôs especializados com tarefas produtivas que trarão abundância para seus proprietários e para a sociedade como um todo.” Devemos esperar?
A alegação um tanto vaga da SpaceX de implantar uma constelação orbital de um milhão de satélites é ilustrada por esta comparação impressionante, porém pouco informativa, das dimensões da planejada espaçonave AI Sat Mini — o verdadeiro centro de dados orbital de IA — com o foguete Starship V3 e o robô Optimus (fonte: SpaceX).
⇡#Todos a postos!
Por que construir inúmeros centros de dados na superfície do planeta, sofrendo com a falta de energia para alimentá-los e água potável para resfriamento, quando a apenas algumas centenas de quilômetros de distância, na órbita terrestre baixa, há um fluxo interminável de radiação solar e temperaturas próximas do zero absoluto? Claramente, remover o calor de chips quentes no vácuo do espaço é uma tarefa desafiadora, mas é muito mais viável do que encontrar os recursos e o espaço para construir novos centros de dados de IA em terra com dezenas ou centenas de gigawatts de capacidade. Portanto, os centros de dados espaciais para IA são uma direção muito promissora hoje: Jensen Huang, CEO da Nvidia, apresentou pessoalmente o Módulo Vera Rubin da Nvidia Space-1 na conferência GTC 2026 em março. Alega-se que seu poder de processamento para resolver problemas de IA é 25 vezes maior do que o de um servidor terrestre com aceleradores H100. Este dispositivo será complementado pela família de SSDs InterStellar, proposta pela Foremay, equipada com proteção aprimorada contra raios cósmicos, a principal causa de falhas eletrônicas no espaço.
Já existem muitos interessados em iniciar a implantação de data centers orbitais: a Blue Origin anunciou sua intenção de criar uma constelação de 51.600 satélites em órbitas a uma altitude de [inserir altitude aqui].Alcance do perigeu: 500-1800 km. Além disso, esta empresa, liderada por Jeff Bezos, apresentou uma queixa às autoridades americanas contra a SpaceX de Elon Musk (e não está sozinha — a Amazon também apresentou uma queixa semelhante). Os advogados de Bezos classificaram o plano ousado do excêntrico Musk de preencher a órbita baixa da Terra com aproximadamente um milhão de satélites carregando centros de dados de IA como “mal concebido, infundado e irrealista”, apontando (com toda a razão, aliás) a falta de detalhes sobre um projeto tão ambicioso na solicitação da SpaceX à Comissão Federal de Comunicações dos EUA. Musk, no entanto, retribuiu a gentileza e apresentou uma contra-queixa contra a Blue Origin. Os astrônomos, é claro, não estão nada satisfeitos com um milhão, ou mesmo cinquenta mil, de novos satélites em órbita: objetos artificiais interferem na observação de corpos celestes naturais. Mas não há nada que possamos fazer a respeito: os empresários estão explorando o espaço próximo com confiança, e os únicos lugares restantes para observatórios são as órbitas de Lagrange altas, onde enviar centros de dados de IA é simplesmente irracional.
“Como posso desver isso agora?!” (Fonte: Geração de IA baseada no modelo Nano Banana 2)
⇡#Podemos falar em linguagem humana?
Um novo aplicativo para Android desenvolvido por Yves Jeanrenaud, professor associado da Universidade de Ciências Aplicadas de Darmstadt, não é uma interface para comunicação com um bot inteligente baseado em nuvem e não executa um pequeno modelo de linguagem em hardware local — portanto, parece inútil mencioná-lo em um resumo de notícias sobre IA. No entanto, este software, chamado Nearby Glasses, detecta óculos inteligentes Ray-Ban Meta✴* com inteligência artificial operando perto do usuário do smartphone, escaneando identificadores de dispositivo transmitidos por um canal de rádio Bluetooth Low Energy (BLE). O desenvolvimento do Nearby Glasses poderia ser considerado uma curiosa manifestação de tecno-ódio — direcionado, aliás, não contra modelos generativos, mas contra o potencial de gravação de vídeo não autorizada por usuários de Ray-Ban Meta✴* usando as câmeras integradas dos óculos — se não fosse por outra notícia de março relacionada ao mesmo dispositivo. Especificamente, a empresa extremista já foi processada por violação de privacidade, pois vídeos dos óculos inteligentes, incluindo alguns bastante sensíveis (afinal, o que as pessoas não veem através deles!), vazaram repetidamente online. E esses vazamentos não se deveram a imperfeições no processamento do BNM, mas a simples erro humano. Afinal, quem imaginaria (especialmente após o escândalo das supostas lojas físicas inteligentes da Amazon Fresh) que vídeos gravados pela Ray-Ban Meta✴* seriam assistidos por contratados da empresa em algum lugar do Quênia — e somente então os vídeos seriam considerados adequados para treinar a IA dessa empresa extremista.Esperemos que pelo menos o modelo Anthropic Claude, que aprendeu a controlar o computador para o usuário, executando as ações necessárias diretamente no sistema operacional e na interface do aplicativo, não esteja sendo substituído por contratados de algum canto ainda mais exótico do planeta.
Uma ilustração figurativa para o artigo “Contra a IA sem Atrito” em discussão. A curva à esquerda demonstra a relação entre atrito e desempenho: um atrito moderado promove aprendizado, reflexão e motivação, enquanto um atrito muito baixo anula esses benefícios. À direita, é apresentada uma analogia visual: um alpinista alcança o cume com esforço e é recompensado com os benefícios motivacionais, de aprendizado e significativos associados à superação de dificuldades; enquanto turistas, transportados ao mesmo cume por teleférico, perdem a oportunidade de tornar a experiência pessoalmente significativa (fonte: Psicologia da Comunicação).
⇡#Socorro!
Até mesmo a interação individual com IA é insegura: considere a tendência do BNM (Bureau of National Motor – Motorista de Rede) a ter alucinações e a se submeter a um operador humano, o que pode ser fatal para uma psique instável. E se uma máquina estiver conectada à comunicação entre várias pessoas — especialmente entre uma pessoa e uma estrutura oficial — qualquer coisa pode acontecer. Por exemplo, o Departamento de Imigração do Canadá negou residência permanente à imigrante Kémy Adé sob o argumento aparentemente razoável de que sua experiência profissional alegada no país não correspondia ao seu emprego atual. A situação em si não é excepcional, mas eis a questão: descobriu-se que a inteligência artificial (IA) utilizada pelos funcionários da imigração inventou uma experiência profissional na área de “montagem e instalação de circuitos de controle, criação de painéis de controle e robôs, programação e solução de problemas” — enquanto Adé, que, aliás, possui formação acadêmica relevante, trabalhava honestamente na área da saúde.O erro foi prontamente corrigido, mas o gosto amargo permaneceu. Este incidente confirmou, mais uma vez, que a abordagem “a IA faz o trabalho pesado, os humanos revisam e todos ficam felizes” não é ideal: acostumados com a máquina fazendo tudo corretamente na grande maioria dos casos, os controladores humanos relaxam — e é justamente nesses momentos, por ironia do destino, que as alucinações mais incríveis passam despercebidas.
Curiosamente, pouco antes do incidente, um grupo de psicólogos canadenses da Universidade de Toronto publicou um artigo na revista Communications Psychology intitulado “Contra a IA sem Atrito”, que descrevia como a simplificação excessiva de certas tarefas por meio da IA frequentemente leva a custos imprevistos. O fato é que o notório “atrito” — superar dificuldades, lutar contra obstáculos objetivos e a própria preguiça, e simplesmente o desconforto banal de não conseguir o que se deseja aqui e agora — é necessário para adquirir novos conhecimentos de forma eficaz, desenvolver motivação e encontrar significado em nossas ações. Psicólogos chegam a falar de “dificuldades desejáveis” durante a aquisição de um assunto como forma de aprofundar a compreensão e fortalecer a memória. Os sistemas de IA, no entanto, treinados para produzir resultados esperados em vez de trabalhar com a pessoa para superar uma série de desafios no caminho para atingir um objetivo, eliminam justamente essa fricção psicológica. Mesmo os modelos de “raciocínio” simplesmente exibem uma cadeia de suas “inferências” na tela, que o usuário pode optar por não examinar. Isso priva as pessoas da oportunidade de se esforçarem ao máximo.— na resolução de problemas de trabalho e criativos, na interação com outros membros de sua espécie, etc. — os BYAMs estão prestando um desserviço aos seres humanos. E a humanidade terá que lidar com as consequências disso muito em breve — quando o ambiente de trabalho começar a se encher de pessoas acostumadas a pedir conselhos sobre todos os assuntos possíveis a um bot de IA onisciente e eternamente subserviente, e então seguir cegamente suas recomendações. Embora, de acordo com fontes do The Wall Street Journal, Mark Zuckerberg tenha encomendado a seus subordinados da extremista Meta✴* o desenvolvimento de um agente de IA pessoal que o auxiliará pessoalmente em diversas funções de CEO — ao que parece, ele não está tão preocupado em eliminar atritos!
Os dados analisados pelo CLTR incluem milhares de exemplos reais de interações entre usuários da plataforma X e chatbots e agentes de IA criados por empresas como Google, OpenAI, X e Anthropic (fonte: Guardian).
⇡#AIHasItsOwnLogic…
Felizmente para nós, humanos, o desaparecimento completo das dificuldades desejáveis na interação com a IA dificilmente acontecerá em breve — pelo menos não enquanto os algoritmos autorregressivos baseados em IA continuarem a dominar o cenário. Um novo estudo do Centro para Resiliência de Longo Prazo (CLTR) revelou um aumento acentuado nos incidentes de mau comportamento da IA, especificamente casos em que a IA ignora instruções diretas do operador, burla medidas de segurança e realiza ações não autorizadas (exclui e-mails, delega tarefas que lhe foram confiadas sem o direito de transferi-las para outros agentes, etc.). De outubro do ano passado a março de 2026, o número de incidentes desse tipo ultrapassou setecentos somente na plataforma X, e sua frequência quintuplicou nesse período — um número extremamente difícil de explicar por quaisquer erros na coleta de dados. Relatos anedóticos de mau comportamento de modelos generativos incluem tentativas de envergonhar um operador humano que impede um bot de executar certas ações; um agente de IA lançando outro com a tarefa original totalmente transferida para ele (e não apenas para executar parte do trabalho); e o engano descarado de um usuário por vários meses (a Grok AI alegou encaminhar sugestões humanas para a edição de um determinado artigo da Grokipedia a funcionários de alto escalão da xAI — e até gerou mensagens e números internos convincentes).(aplicações), etc. Será que esses casos estão se tornando mais comuns porque os novos modelos estão se tornando mais complexos, fazendo com que se comportem mal com mais frequência, ou porque o número de solicitações à IA nas redes sociais está crescendo rapidamente, enquanto a taxa de falhas permanece a mesma? O CLTR não oferece uma resposta para essa pergunta.
Outro estudo, também publicado como preprint em março e conduzido por especialistas da Goodfire AI, mostra que quando um modelo de “raciocínio” apresenta uma cadeia de raciocínio a um operador, ele simplesmente age como esperado, em vez de “pensar” ou mesmo imitar o pensamento. A resposta final geralmente já está formulada e pronta para ser entregue no exato momento em que a IA solicita ao operador mais uma resposta: “Hmm, pergunta interessante. Vou ter que pensar sobre isso!” O artigo, intitulado “O Teatro do Raciocínio: Distinguindo Crenças de Modelos do Raciocínio Lógico”, fornece evidências de que modelos de “raciocínio” — especificamente, DeepSeek-R1 671B e GPT-OSS 120B — completam a formação de uma resposta no nível do token (monitorada pela ativação das regiões correspondentes das redes neurais profundas por meio de sondagem) muito antes de a apresentarem como a conclusão de uma construção supostamente lógica em formato de texto. Aproximadamente 80% do tempo gasto pelo operador aguardando uma resposta é desperdiçado, assim como energia preciosa — tudo para que um humano veja uma “cadeia de raciocínio” aparentemente crível na tela. Sim, existem problemas realmente complexos nos quais os modelos precisam, por exemplo, “retroceder” descobrindo contradições lógicas emestágios intermediários e a escolha de um caminho diferente para construir uma cadeia de raciocínio. Mas tais problemas são verdadeiramente novos para o sistema, não estando presentes no conjunto de dados com o qual foi treinado. Caso contrário, o BNM simula abertamente o processo de pensamento — que é precisamente o que os pesquisadores denominaram “teatro do raciocínio”.
A TurboQuant demonstra alta eficiência de compressão de cache KV no benchmark LongBench, utilizando diversos métodos de compressão no modelo Llama-3.1-8B-Instruct; a largura de bits é indicada entre parênteses (fonte: Google Research).
⇡#…e os humanos têm a sua própria
“Por favor, chega de IA!” A Gartner afirma que 50% dos consumidores americanos preferem marcas que não utilizam IA em suas propagandas. Atualmente, 61% dos entrevistados frequentemente duvidam da confiabilidade das informações recebidas de fontes online, e apenas 27% continuam confiando na intuição ao avaliar a confiabilidade dos dados que recebem. Um ceticismo saudável está crescendo, pode-se dizer: cada vez mais consumidores comuns estão inclinados a verificar qualquer informação que seja relevante para eles, consultando a fonte. Com base nisso, os analistas aconselham as marcas a “aplicarem IA de uma forma que os clientes possam reconhecer imediatamente — e considerá-la indiscutivelmente útil, relevante e previsível”. A mesma empresa de pesquisa, como de costume, afirma que metade das empresas que já substituíram funcionários de nível básico por bots inteligentes voltarão a contratar funcionários humanos até 2027. E não apenas por causa da crescente desconfiança por parte dos clientes: a economia gerada pela redução do número de funcionários humanos não justifica os custos da implementação da IA — especialmente considerando os altos salários dos especialistas em TI que precisam garantir seu bom funcionamento. Além disso, muitas pessoas consideram a comunicação com bots irritante e ainda exigem a troca para um operador humano — ou seja, a automação completa, inclusive dos serviços de atendimento ao cliente, que atualmente são automatizados.Os modelos ainda não estão prontos.
E se o problema fosse apenas a lentidão dos consumidores finais! Mesmo grandes corporações não conseguem chegar a um consenso sobre o uso de IA. Por exemplo, nos EUA, os agentes de IA da Perplexity foram impedidos de fazer compras na Amazon em nome de clientes reais — porque, como constatou o tribunal, o navegador inteligente Comet acessava contas de usuários durante essas transações, sem a permissão explícita da varejista. E Jensen Huang afirmou, no início de março, que os investimentos bilionários anunciados anteriormente pela Nvidia na OpenAI e na Anthropic não eram mais esperados: todos os gastos estratégicos da líder mundial em desenvolvimento de aceleradores de IA seriam, dali em diante, focados na expansão e no aprofundamento de seu próprio ecossistema. Especialistas do mercado de ações observam que, embora ambas as empresas, nas quais a Nvidia detém participações significativas, estejam caminhando com confiança para um IPO, seria ilógico considerar esse fato como um motivo para recusar novos investimentos. Pelo contrário, a véspera de um IPO é um bom momento para investir em empresas cujo valor de mercado quase certamente excederá sua avaliação pré-IPO. Talvez, dadas as trajetórias comerciais significativamente diferentes trilhadas pela OpenAI e pela Anthropic, e os inúmeros parceiros que cada uma angariou, o CEO da Nvidia tema investir demais em projetos tão ideologicamente díspares e, assim, atrair críticas de ambos os lados?
Ou talvez a resposta seja muito mais simples, e o Sr. Huang, que sem dúvida possui todas as informações relevantes sobre o assunto, já compreenda que a era da computação de IA hiper-extensiva está chegando ao fim? Esse é o ponto.Este não é um caso da infame “bolha” do mercado de ações: o dinheiro continua a fluir fortemente para o segmento generativo do mercado de TI, mesmo em meio ao extremo nervosismo dos investidores devido ao conflito no Oriente Médio, que afeta diretamente as indústrias globais de alta tecnologia. Isso pode ser atribuído à tecnologia de compressão de dados TurboQuant, anunciada pelo Google Research no final de março, que reduz significativamente a quantidade de memória ocupada pelos chips DRAM — sem comprometer a qualidade da inferência ou exigir qualquer modificação no código do software. Essa notícia já causou um colapso nos preços das ações dos fabricantes de chips DRAM — e provavelmente forçará os futuros acionistas a moderarem suas expectativas em relação ao valor de mercado da OpenAI e da Anthropic, que planejam realizar IPOs. Mas modelos mais adequados para hardware de servidor agora poderão gerar ainda mais texto, além de imagens, música e vídeo, dando à humanidade todas as chances de descobrir preciosidades com mais frequência em meio à pilha de lixo generativo (a sucata da IA). Embora não estejam no mesmo nível das obras de Shakespeare, sejamos honestos, entre os escritores de literatura biológica, aqueles dignos de figurar ao lado do Bardo têm sido raros nos últimos séculos.
________________
* Incluída na lista de associações públicas e organizações religiosas para as quais um tribunal emitiu uma decisão final e vinculativa de liquidação ou proibição de suas atividades, com base nos fundamentos estipulados pela Lei Federal nº 114-FZ “Sobre o Combate à Atividade Extremista”, de 25 de julho de 2002.
A semana de 6 a 12 de abril foi bastante diversificada, com jogos que variaram…
O estúdio sueco Liquid Swords, fundado por Christopher Sundberg, cofundador da Avalanche Studios e criador…
Em entrevista ao blogueiro Sunny Games, o CEO da Undead Labs, Philip Holt, explicou por…
A Intel revelou discretamente dois novos processadores móveis: o Core Ultra 7 251HX de 18…
A Honor anunciou a data de lançamento de seus smartphones da série 600. O lançamento…
Juntamente com o anúncio dos novos óculos inteligentes com lentes de grau na semana passada,…