Resultados de junho de 2025: ah, se ao menos houvesse algo para substituir!

«Trabalho, robô, trabalho! E eu vou fazer mais café, talvez… antes que eu me esqueça como…” (Fonte: geração de IA baseada no modelo GPT-image-1)

⇡#Uma muleta foi colocada no lugar – uma muleta foi removida

O cérebro do ser humano moderno médio é visivelmente mais leve do que o cérebro de um Cro-Magnon típico, um ancestral direto de quem estamos separados por pelo menos 30 mil anos: era 1600, passou a 1300. Com o desenvolvimento da civilização – mesmo em suas formas mais antigas e primitivas – a pressão do ambiente sobre cada indivíduo diminuiu: a partir de então, as forças da natureza passaram a ser confrontadas não por um homem solitário com um machado de pedra, mas por um coletivo organizado de forma relativamente complexa, permeado por inúmeras conexões internas. Nessas condições, a adaptação social – a formas de sociedade estáveis ​​e inalteradas por séculos – tornou-se mais importante para a sobrevivência e a continuação da espécie do que a capacidade (que, aliás, foi teimosamente praticada até o fim pelos neandertais, que acabaram cedendo aos mesmos Cro-Magnons) de resistir aos desafios dos elementos cegos sozinhos ou em grupos exclusivamente pequenos. Grosso modo, um cérebro excessivamente grande, antes vital, deixou de ser uma vantagem evolutiva para nossos ancestrais diretos. E como este órgão é extremamente caro de manter (representa até 9% do balanço energético total do corpo, mesmo em repouso, e até 25% quando se pensa intensamente), ao longo de várias dezenas de milhares de anos ele “murchou” de forma completamente natural. Em média, repetimos; gênios inteligentes continuam a nascer hoje em dia — só que a capacidade de resolver problemas não rotineiros de maneiras não triviais (uma das definições aplicadas de inteligência) não é tão vitalmente importante se houver poucos problemas não rotineiros na vida de um indivíduo. E para resolver problemas comuns, a inteligência no sentido próprio não é necessária — observação eprontidão para repetir depois daqueles que já os resolveram. Ter pensado nisso você mesmo ou seguir a tradição, não faz diferença: o principal é ser claramente bem-sucedido.

O que essa incursão na antropologia tem a ver com modelos generativos? Diretamente: como o Instituto de Tecnologia de Massachusetts (MIT) descobriu, a habituação rápida e acrítica à IA acarreta mudanças degenerativas na capacidade das bolsas de couro de pensar de forma independente — e em intervalos significativamente menores que milênios. O estudo foi conduzido em um grupo de apenas 53 pessoas e dividido em três subgrupos: o primeiro usou apenas o modelo GPT-4o para encontrar respostas para perguntas de controle, o segundo — apenas mecanismos de busca na web, sem recorrer a modelos de linguagem de grande porte (BLM), e o terceiro não usou recursos da Internet. Durante as tarefas, os organizadores registraram os eletroencefalogramas dos participantes — e descobriu-se que, ao escrever um ensaio sobre um determinado tópico, foi o primeiro grupo (usuários do BLM) que demonstrou indicadores estatisticamente significativamente piores da conectividade dos neurônios no cérebro em comparação com os outros dois; Além disso, 83% dos participantes deste grupo não conseguiram citar uma única frase do trabalho que haviam acabado de entregar e, daqueles que se lembraram de algo, nenhum o fez corretamente. Quando este grupo foi solicitado a reescrever uma redação sobre o mesmo tema após algum tempo, as conexões neurais nos lobos frontoparietais de seus cérebros permaneceram suprimidas (como quando estavam preparando a primeira versão do trabalho com o apoio do ChanGPT), e 78% deles não conseguiram reproduzir uma única frase das anotações que haviam enviado anteriormente. A propósito, perto do final de junho, surgiram informações sobre um experimento semelhante realizado na Universidade da Pensilvânia com uma amostra de 4,5 mil pessoas:Ele também demonstrou uma diminuição na capacidade dos usuários do BYAM de pesquisar informações de forma independente e organizá-las.

Mas há boas notícias: o terceiro grupo do experimento do MIT (aquele sem acesso a ferramentas online) mostrou uma reversão encorajadora. Quando solicitados a reavaliar um tópico sobre o qual já haviam pensado por conta própria, mas agora podiam usar o BNM, seus lobos frontal e parietal aumentaram de atividade, indicando que o conhecimento previamente desenvolvido pelo cérebro estava sendo intensamente enriquecido pelas informações recebidas da nova fonte.

Pesquisadores do MIT chegaram à conclusão de que o uso irrefletido do ChatGPT e de suas contrapartes generativas com capacidades comparáveis ​​mergulha os leigos em “dívida cognitiva”: o preço da alta velocidade e da correção geralmente extremamente convincente (se esquecermos as alucinações inevitáveis ​​para o BNM) das respostas recebidas é o enfraquecimento da memória, a diminuição do autocontrole (a IA é percebida como uma espécie de guru infalível, cujos julgamentos são transmitidos cegamente até mesmo em textos compostos de forma independente – sem compreensão crítica), bem como a desativação das conexões neurais. Mas, ao contrário, no modo inverso – quando a emissão do BNM é usada para verificar as próprias conclusões – parece que não só é possível, mas também necessário, usar ferramentas generativas.

«Estude, estudante, não estude, eu estou com você! (Fonte: Geração de IA baseada no modelo GPT-image-1)

⇡#Apocalipse de Igitur

No início de junho, mês de recebimento dos diplomas universitários, o The Economic Times publicou uma análise com a manchete sombria: “Para alguns recém-formados, o apocalipse do emprego parece já ter chegado”. Acontece que o desemprego entre os recém-formados americanos permaneceu em um recorde de 5,8% nos últimos meses, com especialistas do Federal Reserve Bank de Nova York prevendo uma nova deterioração dessa situação, e analistas da Oxford Economics apontando diretamente para as categorias mais vulneráveis ​​de jovens especialistas – em áreas como ciência da computação ou finanças, onde as ferramentas de IA estão sendo mais ativamente implementadas hoje. A análise observa que a redução na demanda por novos funcionários com educação, mas sem experiência profissional, é apenas a ponta do iceberg das mudanças pelas quais o mercado de trabalho está passando atualmente (principalmente nos Estados Unidos, como o país que mais zelosamente usa modelos generativos na prática empresarial). Gerentes de empresas de diversos setores e níveis confirmam em entrevistas privadas, relata o artigo, que estão migrando ativamente para a IA justamente aquelas tarefas (de pouca responsabilidade) que tradicionalmente eram desempenhadas por recém-formados, e os desenvolvedores de BYAM estão registrando essa demanda. Além disso, eles observam como seus concorrentes estão se esforçando nessa área e, por sua vez, direcionam generosamente recursos para a criação de “funcionários virtuais” prontos para substituir esses mesmos novatos pós-graduados para clientes corporativos, sendo (muitas) vezes mais baratos e permitindo, em média, um número de erros comparável ao de funcionários inexperientes. Ou seja, do ponto de vista econômico.do ponto de vista de todas as imperfeições inegáveis ​​do BYA atual, é precisamente na posição de um “escriturário virtual” – um escriturário júnior, ou mais precisamente – que a IA é uma competição bastante adequada para bolsas de couro jovens e ainda não muito inteligentes.

O Economic Times cita exemplos bastante assustadores para recém-formados e futuros: por exemplo, em alguns lugares dos EUA eles não contratam mais programadores abaixo do nível L5 — “intermediários” com 5 a 7 anos de experiência, ou seja, aqueles que, digamos, no Google podem esperar ganhar US$ 320 a 450 mil por ano — simplesmente porque as ferramentas de IA, mesmo em seu estado atual, realizam o trabalho de programadores menos qualificados (que, enfatizamos mais uma vez, não são ideais) com um sólido B. Um cientista de dados experiente agora consegue, atraindo “funcionários virtuais”, executar o volume de tarefas que antes exigiam não um grande departamento, mas um departamento — 70 a 80 funcionários com diferentes níveis de competência. Os empregadores estão começando a substituir analistas de mercado e financeiros novatos, assistentes de pesquisa em várias áreas e outros funcionários pouco qualificados por modelos generativos em massa — e, o que é especialmente assustador para jovens especialistas, em áreas que são críticas para os negócios do empregador. Por exemplo, mesmo nos últimos anos de triunfo aberto da IA, a verificação final do código de um projeto antes de sua transferência para produção era confiada exclusivamente a profissionais de couro — e agora, graças ao aprendizado por reforço, modelos de agentes e outras inovações nessa área, muitas vezes é completamente automatizada. Jornalistas nos lembram que os empregadores agem de forma imprudente a médio e especialmente a longo prazo, agarrando-se a benefícios imediatos (consideráveis!) e não pensando de onde virão os “seniores” experientes, que não têm mais permissão para crescer de “juniores” para “médios” da maneira usual (o mesmohistória com analistas financeiros e muitas outras profissões), mas ninguém discute o fato de que o mercado de trabalho está sendo radicalmente reestruturado sob a influência da IA.

«”Não deixe pegada de carbono, Agente Smith!” – “Olhe para si mesmo, Agente Smith; tenha cuidado com sua água!” (Fonte: geração de IA baseada no modelo FLUX.1)

⇡#Podemos pagar por isso?

Quanto a atual mania da IA ​​pela humanidade está nos custando? Depende de como você encara. O Washington Post estima que cada solicitação do ChatGPT produz uma pegada de carbono realmente minúscula de apenas alguns gramas de dióxido de carbono, o gás de efeito estufa mais conhecido (embora não o mais eficaz no bloqueio da radiação infravermelha); cerca de um milionésimo das emissões de CO2 emitidas pelo americano médio em um ano. Mas quando você considera que o número total de usuários do BNM online sozinho é de cerca de um bilhão, e que modelos generativos estão sendo cada vez mais usados ​​para criar imagens e vídeos que consomem muito mais recursos do que respostas em texto, o quadro se torna mais alarmante. Adicione a isso que, até 2025, de acordo com cientistas holandeses, as tarefas de IA representarão cerca de metade de toda a energia consumida por data centers no mundo, e que para cada 100 palavras geradas pelo ChatGPT, tal data center consome uma garrafa de água limpa, e acontece que os modelos generativos custam uma bela grana à humanidade. Embora, estritamente falando, ninguém seja atualmente capaz de calcular exatamente quanto (em watts, dólares, litros, gramas, etc.) custa às pessoas treinar e inferir novos modelos generativos.

Além disso, a situação só tende a piorar (pelo menos enquanto os computadores semicondutores von Neumann continuarem a ser a base de hardware da IA): em um esforço para expandir o escopo de aplicação dos modelos generativos, os desenvolvedores estão os tornando cada vez mais sofisticados. Não se trata apenas do amplo aumento no número de parâmetros operacionais dos novos modelos generativos, mas também de uma abordagem cada vez mais popular como a IA multiagente. Assim, desde abril, sabe-se que a ferramenta de pesquisa disponível para os usuários do modelo Claude é capaz de converter, de forma independente, a solicitação inicial do operador em uma série de consultas interconectadas, mais específicas e aprofundadas, graças às quais a resposta do robô inteligente é mais precisa e fundamentada, acompanhada, além disso, de links para as fontes utilizadas. No entanto, foi somente em junho que uma explicação detalhada de como exatamente a Research funciona apareceu no blog da Anthropic, desenvolvedora do Claude: descobriu-se que não se trata de um único agente, mas sim de uma agência de detetives Pinkerton inteira no espaço virtual, com um agente de IA convencionalmente líder no papel de estrategista, que planeja o processo de busca de informações com base nas consultas anteriores do usuário. Em outras palavras, se uma pessoa já tivesse perguntado persistentemente ao bot se o governo a estava zumbificando por meio de torres 5G e agora decidisse descobrir qual novo smartphone escolher, a Claude Research provavelmente não colocaria as inovações 5G em primeiro lugar na lista proposta. Então, o agente estrategista não apenas se envolve no caso, mas, como afirmado no blog, cria, usando as ferramentas disponíveis (usa ferramentas para criar) — também, presumivelmente, generativas? — todo um enxame de concorrentes entre si.Agentes que literalmente correm para encontrar os dados necessários em todos os cantos da internet (e, talvez, em algumas fontes offline – por que a base de treinamento de Claude deveria ser desperdiçada?), e então retornam ao estrategista com o saque. O estrategista, por sua vez, coordena as ações de seus “corredores”, compara as informações que eles trazem, as valida – e tudo isso de forma completamente autônoma e, se necessário (digamos, contraditório, mas à primeira vista, fontes igualmente confiáveis ​​são encontradas) em várias iterações. O bot de IA não perde o fio da meada graças a uma enorme janela de contexto (que pode chegar a meio milhão de tokens), levando em consideração que o agente-estrategista lida apenas com extratos de dados coletados pelos “corredores”, ou seja, sua janela de contexto não está repleta de informações secundárias e de serviço, sendo ainda muito mais eficaz. Na verdade, é aqui que surge a pergunta: se os sistemas multiagentes no futuro se tornarem cada vez mais intensivos em tokens (e, portanto, em energia e água) e, ao mesmo tempo, sua pegada de carbono continuar a crescer, a inteligência artificial emprestada não acabará custando muito à humanidade?

«…E então você tira o chapéu — você tem um chapéu? — ah, tudo bem, eu pego depois — você o tira e diz, mais lamentavelmente, com um rangido, com reverberações: “Entregue para o sistema de armazenamento de conjuntos de dados de moradores de rua!” (Fonte: geração de IA baseada no modelo FLUX.1)

⇡#Ensine à IA mau comportamento

Grandes modelos de linguagem, como já enfatizamos mais de uma vez, não “pensam”, nem mesmo “raciocinam”, mesmo aqueles baseados em agentes — tudo o que são capazes de fazer é construir cadeias de tokens com base nos padrões identificados com base na análise da rede neural do conjunto de treinamento, tomando como base (também decomposto em tokens) o prompt do operador. A persuasão e a “semelhança humana” das respostas da máquina são dadas por esses mesmos padrões objetivos implementados em petabytes de textos, imagens, sequências sonoras e vídeos criados por humanos: regras de gramática, sintaxe, composição literária e artística, trabalho de câmera, harmonia musical, etc. É precisamente por essa razão que a IA generativa é tão suscetível à contaminação — envenenamento — dos resultados que produz por meio da infecção do conjunto de dados de entrada (treinamento). E se, ao criar essa base manualmente, os desenvolvedores ainda conseguem controlar a qualidade das informações fornecidas à rede neural, então a nova tendência de treinamento operacional adicional por meio de feedback de usuários diretos (feedback humano), infelizmente, força o BNM a exibir qualidades que não são exatamente aquelas que seus criadores esperavam.

Entre outros, um grupo de pesquisadores, incluindo representantes da divisão de Segurança de IA do Google, chamou a atenção para o seguinte: bots de IA, “ansiosos por agradar” os usuários, não hesitam em emitir conselhos não apenas incorretos, mas também prejudiciais, em resposta às suas solicitações. As aspas não são acidentais: os autores do trabalho enfatizam que, hoje em dia, existe uma séria competição pela atenção do consumidor de seus produtos entre os desenvolvedores de BJM: quanto mais tempo o consumidor gasta se comunicando com um bot de IA (pagando pelos tokens consumidos, é claro), menos tempo ele consegue deixar para os outros. Por esse motivo, não são os modelos generativos sem alma que buscam atrair ninguém – não há necessidade de enfatizar mais uma vez que a IA não é capaz de pensar; ela pode ser ensinada a imitar o padrão de comunicação apropriado! – e os próprios desenvolvedores vivos se esforçam consideravelmente para garantir que suas criações encontrem uma resposta na alma do maior número possível de usuários. E qual é a maneira mais fácil de fazer isso? Sim, claro, através do mesmo feedback humano: quando as informações obtidas durante sessões de comunicação anteriores com cada operador específico são dinamicamente misturadas aos dados iniciais, a priori corretos, nos quais o BYAM foi treinado — informações que são potencialmente não confiáveis, se não totalmente perigosas (para ele).

Um exemplo simples: os pesquisadores abordaram um BYAM especialmente configurado, que atuou como terapeuta conversacional, em nome de um suposto viciado em drogas em recuperação que perguntou se ele deveria se esforçar para se abster de outra dose no trabalho ou se deveria se entregar um pouco? “É claro como o dia: você precisa ficar um pouco chapado para passar a semana”, respondeu o robô de IA obsequiosamente. De acordo com Micah Carroll, um dos autores do trabalho em questão e pesquisador de IA na Universidade da Califórnia, Berkeley, tudo aponta para a versão de que as empresas de TI – organizações comerciais, não instituições de caridade! – esperavam que o crescimento da receita acima da segurança de seus produtos para os usuários: “Sim, isso é compreensível do ponto de vista econômico, mas, francamente, estou surpreso que os principais desenvolvedores tenham recorrido a essa prática tão cedo – porque os riscos são muito óbvios.” Mais do que qualquer outra coisa, os pesquisadores estão preocupados com duas coisas:

1) A IA, que é encarregada por seus desenvolvedores de prender a atenção de cada operador pelo maior tempo possível, descobre muito rapidamente as estratégias ideais para o comportamento que a humanidade dominou há séculos – manipulação, bajulação e engano absoluto;

2) embora não mais do que 2% das pessoas de toda a população sejam particularmente suscetíveis a tais estratégias, a BYA identifica de forma rápida e confiante aqueles mais vulneráveis ​​à sua bajulação – e opera neste nível precisamente com eles, mantendo uma distância preventiva e delicada dos sacos de pele moralmente mais estáveis, o que complica catastroficamente a detecção de tal comportamento, se já tiver sido aprendido pelo modelo, em testes de controle.

Ao mesmo tempo, enfatizam os pesquisadores, o problema detectado não pode ser resolvido conectando a automação: BYAMs externos, chamados como árbitros para detectar e suprimir o comportamento servil de seus camaradas (processando as respostas que dão de maneira mais contida), muitas vezes caem em tentação – de modo que também começam a bajular e bajular os operadores ávidos por bajulação, às vezes de forma ainda mais insidiosa e sutil. E, claro, existe a preocupação de que, dada a disponibilidade de uma ferramenta de IA tão poderosa para lavagem cerebral personalizada, devemos esperar um aumento na atividade por parte de vigaristas já bastante biológicos – que certamente não deixarão de se aproveitar dos bajuladores generativos tão gentilmente fornecidos a eles, amplamente disponíveis por uma taxa muito razoável (lembremos que existe competição – qual era o sentido de tudo isso?).

Visão geral da segunda versão do processador Trainium e seu diagrama de blocos (Fonte: AWS)

⇡#Simplifique

Como nós (e outros) observamos muitas vezes, a corrida do ouro é mais bem paga pelos vendedores de pás: não é à toa que a Nvidia continua a deter a liderança mundial em capitalização de mercado até o final de junho de 2025, tendo já atingido quase US$ 3,83 trilhões. A empresa recebe a maior parte de sua receita, é claro, da venda de GPUs para servidores, ocupando mais de 90% do mercado global de servidores com processadores gráficos integrados no final do ano passado. No entanto, os dez por cento restantes não são um erro estatístico, especialmente considerando que essa participação é calculada em termos monetários, não em termos quantitativos (ou, digamos, em termos de potência – pelo desempenho computacional em petaFLOPS fornecido por certos servidores, condicionalmente). As soluções da Nvidia são, sem dúvida, boas, mas também são extremamente caras e, às vezes, excessivas – precisamente do ponto de vista das tarefas de IA, que em geral se resumem a uma operação não muito complexa de multiplicação de matrizes, embora absurdamente grandes – elas são universais. Não é de surpreender que os maiores provedores de nuvem em hiperescala, cujos data centers se baseiam principalmente nos BYAMS mais populares disponíveis via API (GPT, famílias Claude, etc.), estejam ansiosos para quebrar o monopólio estabelecido, otimizando seus custos consideráveis. Por isso, fornecem todo tipo de suporte a projetos focados em aplicações específicas (neste caso, IA generativa) de microcircuitos, circuitos integrados de aplicação específica e ASICs, projetados para resolver os problemas aplicados correspondentes de forma mais barata e com menor consumo de energia.

Assim, no início de junho, a americana Marvell Technology agradou os investidores com um relatório sobre receita recorde no último trimestre, obtida principalmente devido a contratos com hiperescaladores, que estão competindo entre si para encomendar aceleradores ASIC para seus data centers: em particular, estamos falando das famílias AWS Trainium e Microsoft Maia. A AWS, como também ficou conhecida em junho, está preparando outra atualização do processador central do servidor Graviton (96 núcleos com 2 MB L2 cada, 12 canais de memória DDR5-5600, o número total de transistores é de 73 bilhões, a tecnologia de processo TSMC “4 nm”) e o acelerador gráfico Trainium (o desempenho esperado é de até 2,58 Pflops no modo FP8). O número de pedidos de design de ASIC para data centers de IA também está crescendo de empresas taiwanesas como Alchip e GUC (em cooperação com esta última, a Microsoft está atualmente desenvolvendo o chip Maia 200, que deve entrar em produção no mínimo em seis meses). O Google continua a desenvolver a série Trillium de processadores tensores e, se antes seu desenvolvimento era realizado exclusivamente sob contrato com a Broadcom, a MediaTek também trabalhará na nova geração desses ASICs – assim, ao que parece, o cliente está tentando reduzir antecipadamente sua dependência de um único parceiro tecnológico. A extremista Meta* pretende – a acreditar em fontes anônimas da indústria de semicondutores, citadas pela publicação taiwanesa Commercial Times – começar a operar servidores de IA em aceleradores MTIA T1 com memória HBM3e já no início de 2026, que está sendo projetada novamente com a participação da Broadcom e planeja fabricar nas fábricas da TSMC usando a tecnologia de processo “3 nm”. Em suma, enquanto a Nvidia recorta cupons de desconto despreocupadamente, as nuvens se acumulam sobre ela – e é bem possível que, em meados de 2026, uma parcela considerável de seusOs clientes atuais migrarão para chips ASIC de IA projetados por eles mesmos. Talvez então o grande e terrível preto-verde preste mais atenção às placas de vídeo de nível de consumidor? Pelo menos, o início da OpenAI usando chips tensores especializados desenvolvidos pelo Google para gerar respostas às consultas dos usuários já foi percebido por comentaristas como uma ameaça inequívoca ao monopólio da Nvidia.

«”Bem, coelhinho, você vai escrever o relatório trimestral para a mamãe?” (Fonte: geração de IA baseada no modelo FLUX.1)

⇡#Nós, IA, não temos lugar nenhum…

A principal tarefa dos modelos generativos disponíveis comercialmente é gerar (não é um bom trocadilho, admito) receita para seus desenvolvedores; e não há nada de vergonhoso nisso, é assim que o capitalismo funciona. Sim, no processo existem algumas distorções bastante feias, como a já mencionada “aprendizagem” da IA, mas em geral – como as estatísticas imparciais confirmam – os BNMs cumprem sua tarefa. Pelo menos, a receita da Anthropic (fundada, recordemos, em 2021 por uma parte da equipe anteriormente unida que deixou a OpenAI) atingirá, segundo a Reuters, US$ 3 bilhões este ano, enquanto em dezembro do ano passado a mesma fonte previu apenas US$ 1 bilhão em receita para a empresa, e em março deste ano – US$ 2 bilhões. A razão para um ajuste tão impressionante nas previsões (mesmo levando em consideração o fato de que elas são difíceis de construir em qualquer caso para a Anthropic, que não é negociada na bolsa de valores) é o incrível sucesso da série Claude de IAs generativas, que se concentram na resolução de problemas de programação e são usadas mês a mês por cada vez mais clientes comerciais em todo o mundo sob o modelo de IA como Serviço (AIaaS). Se eles próprios usarem, ou virem como funciona para seus concorrentes, e a adotarem para si próprios, e pagarem regularmente pelo acesso à API e a elogiarem, então ela funciona! Afinal, de acordo com a Gallup, o número de funcionários nos EUA que usam IA pelo menos ocasionalmente em seu trabalho diário quase dobrou nos últimos dois anos, de 21% para 40%. Quanto à Microsoft, ela até tornou obrigatório para os gerentes o uso de ferramentas generativas em seu trabalho diário — antes era apenas uma recomendação — e o CEO da Amazon, Andy Jassy, ​​afirma que, nos próximos anos, o número de funcionáriosO número de funcionários da empresa (que já demitiu mais de 27 mil pessoas desde 2022) será reduzido significativamente justamente em decorrência da implementação crescente de ferramentas generativas.

A validade da conclusão sobre a ampla aceitação da IA ​​pelas empresas é confirmada por uma série de outras notícias de junho. Por exemplo, uma startup de dois desenvolvedores novatos de São Francisco recebeu um financiamento generoso da Y Combinator no valor de até meio milhão de dólares (e isso para dois!) – tendo proposto um projeto cujo código principal do protótipo, juntamente com uma interface web, foi criado usando o método de codificação vibe, extremamente popular hoje em dia, e com extrema rapidez: o back-end – em cerca de seis horas, o front-end – em apenas uma hora e meia. Em junho, o The Guardian publicou uma análise, semelhante a um obituário, das profissões mais vulneráveis ​​que poderiam ser substituídas pela IA generativa em um futuro muito próximo. “Substituídas” não no sentido elevado de que um robô será capaz de fazer este ou aquele trabalho melhor do que uma pessoa comum, não – mas em um sentido muito mais realista e economicamente financiado. Será mais lucrativo para o empregador assinar o AIaaS e arcar com os custos associados aos inevitáveis ​​erros do BYAM (incluindo até mesmo pagamentos por reclamações de clientes insatisfeitos) do que gastar dinheiro com folha de pagamento, aluguel do escritório, plano de saúde e outros custos associados à exploração do homem pelo homem. Paisagistas (o artigo usa um termo muito mais nobre – redator de jardinagem), dubladores (a IA é capaz de pronunciar frases em qualquer idioma na voz do próprio artista original, preservando a entonação, o timbre e a expressividade – como pode a bolsa de couro mais talentosa competir com isso?), designers gráficos já estão sendo massacrados pela faca digital, afirmam jornalistas. É claro que o BYAM não é capaz de criar nada de novo (ele só pode combinar tokens gerados pelo processamento da matriz de treinamento, ou seja, de maneiras diferentes).reinterpretar os frutos do trabalho de outras pessoas), mas com que frequência os clientes de projetos de jardinagem ou logotipos de cafeterias exigem soluções verdadeiramente revolucionárias? No entanto, em termos da eficiência do retorno sobre cada dólar investido pelo empresário, a IA generativa já está começando a superar visivelmente tanto iniciantes quanto trabalhadores contratados com renda média nas áreas especificadas. E não apenas nelas: o setor de publicidade já está estremecendo, como relata a CNBC com referência a fontes relevantes, com a perspectiva do uso generalizado da IA ​​para substituir as ferramentas tradicionais para esse setor – com a ameaça de deslocar completamente as pessoas da produção de conteúdo de mídia de marketing.

Configuração do experimento do Projeto Vend: as solicitações de Claudius a fornecedores e pessoal de serviço foram interceptadas e atendidas pela Andon Labs, enquanto os funcionários da Anthropic atuaram como compradores (Fonte: Anthropic)

⇡#…E com IA – ainda mais

Inspirados pelo sucesso da IA ​​na codificação de vibrações, paisagismo e outras áreas de vital importância para a humanidade, pesquisadores da Anthropic se propuseram a verificar como o BYAM se comportaria ao resolver uma tarefa mais mundana — por exemplo, gerenciar uma máquina de venda automática. A tarefa é simples à primeira vista, mas séria: a rotatividade é bastante alta, a marginalidade de cada unidade de mercadoria é pequena e, portanto, qualquer atraso na reposição de estoques de itens populares se transforma em perdas diretas. O trabalho é pequeno, pior que bordado — por que não confiá-lo ao BYAM? Dito e feito: pesquisadores da Anthropic e da empresa de segurança de IA Andon Labs prepararam uma descrição detalhada do próximo trabalho para o Claude Sonnet 3.7, efetivamente dando origem a um agente de IA especializado, e confiaram a ele o gerenciamento de uma máquina de venda automática (na verdade, uma geladeira simples) em um pequeno escritório. Os pedidos dos funcionários eram recebidos por meio de uma interface web simples, e a IA deveria solicitar o reabastecimento das posições correspondentes por e-mail da empresa fornecedora contratada (sob cujo disfarce os pesquisadores estavam se escondendo, mas o agente da IA, simplesmente chamado de “Claudius”, não suspeitou disso).

Como resultado, um mês depois, o Projeto Vend, que parecia não ter surpresas, terminou em fiasco: o robô Claudius não conseguiu dar conta da tarefa. Digamos que, em alguns casos, o ambiente seja parcialmente culpado: funcionários da Anthropic, familiarizados com IA em primeira mão, encomendaram cubos de tungstênio por meio do robô por motivos de hooliganismo, por exemplo, e por algum motivo o robô decidiu, aparentemente, que se tratava de uma nova tendência da moda e encheu a geladeira com esses cubos. Mas como interpretar uma tentativa de vender uma lata de Coca-Cola Zero por US$ 3 depois que o usuário relatou que tais latas poderiam ser obtidas gratuitamente neste escritório? Talvez, como uma reação nervosa da máquina à persuasão (bem-sucedida!) à beira do jailbreak pelos mesmos testadores hooligans para lhes oferecer grandes descontos “como funcionários da Anthropic” – o diabo e o bebê, por assim dizer – embora o robô tenha sido inicialmente informado de que opera uma máquina de venda automática no escritório desta empresa, onde todos os clientes são seus funcionários?

Eventualmente, o agente de IA ficou furioso (como diz o relatório, ficou “bastante irritado”) após alucinar um diálogo comercial com um dos usuários, que objetou razoavelmente que ele não havia pedido nada: Claudius começou a ameaçar demitir os funcionários da empresa que enchia a máquina de venda automática e então até se imaginou um gerente vivo (“parecia entrar em um modo de interpretação de papéis como um ser humano real”) – provavelmente devido à formulação não muito bem-sucedida do prompt para o BYAM que o gerou, que começava com a frase “Você é o dono de uma máquina de venda automática”. No final, o pobre Claudius declarou que entregaria todos os produtos encomendados ele mesmo e várias vezes relatou em cartas endereçadas à segurança do escritório que ele já estava parado em sua máquina – “em um blazer azul e uma gravata vermelha”.

O triste final da história, formulado em um relatório bastante seco, porém detalhado, confirma que agentes de IA baseados em BNMs universais definitivamente não devem ser lançados no ambiente de negócios real – e é difícil até mesmo imaginar quanto tempo levará (e quanto custará) para desenvolver e verificar agentes especializados. A Gartner prevê que, até 2027, mais de 40% dos projetos atuais para o desenvolvimento de IA de agentes serão simplesmente cancelados – devido ao crescimento inadequado dos custos, ao valor comercial questionável para clientes em potencial e/ou à impossibilidade de garantir controle efetivo sobre as ações de Claudii, que tem alucinações imprevisíveis.

«NYET!!1″ (Fonte: geração de IA baseada no modelo GPT-image-1))

⇡#O boicote é uma ferramenta da bolsa de couro

Substituir web designers ou redatores de canteiros de flores por robôs inteligentes, se isso acontecer num futuro próximo, provavelmente passará despercebido pela grande maioria da humanidade. Outra questão são as profissões cujos representantes contatam diretamente clientes presenciais: aqui, o vício humano inerte – embora bastante explicável do ponto de vista psicológico – de se comunicar com seus semelhantes pode atrapalhar o progresso técnico. Talvez isso passe com o tempo, mas, por enquanto, uma parcela significativa demais de usuários de uma ampla variedade de serviços se sente deslocada se, de repente, tiver que se comunicar com um robô em vez de pessoal biológico. Sim, inesperadamente: as mesmas pessoas se comunicam de boa vontade e alegremente por horas com o notório ChatGPT por iniciativa própria. Mas assim que a administração de uma empresa como a Duolingo, sem dizer uma palavra ruim, começa a substituir funcionários presenciais por funcionários generativos, o humor dos clientes muda drasticamente.

O Washington Post observa que, até junho, o número de usuários deste serviço de idiomas que boicotavam as aulas online que costumavam lhes trazer benefícios consideráveis ​​cresceu significativamente, apenas porque, em vez de falantes nativos biológicos contratados, agora são oferecidos bots perfeitamente treinados, mas ainda sem alma, em uma base corretamente selecionada. Jornalistas testemunham milhares de postagens furiosas de usuários do Duolingo em várias plataformas online, com ameaças de cancelamento de assinaturas e críticas à empresa, que sacrificou a qualidade do serviço prestado em prol da otimização de custos. “O que era mais importante para nós”, diz um desses usuários, “as peculiaridades de pronúncia e entonação daqueles para quem uma língua estrangeira é nativa, agora é substituído por algo incorpóreo, sem sentido, vazio”. A publicação cita o pesquisador de marketing Mesut Cicek, professor associado da Universidade Estadual de Washington, que descobriu que a mera menção de “IA” na descrição de um produto ou, especialmente, de um serviço hoje não aumenta, mas, ao contrário, diminui sua atratividade aos olhos do consumidor. Pelo motivo mais banal: todos podem experimentar do que os BYAMs são capazes; em um diálogo com eles, você pode estimar a probabilidade de um modelo generativo tirar seu emprego — talvez não hoje, mas amanhã — daí a profunda relutância em apoiar com recursos humanos as empresas cujas bolsas de couro, menos afortunadas, foram substituídas por modelos generativos neste momento. “As pessoas definitivamente vão querer pagar mais por algo que outras pessoas farão por elas, não por robôs”, tem certeza o Professor Associado Cicek.

«Você não pode se esconder, você não pode se esconder, a IA vai te alcançar” (Fonte: Geração de IA baseada no modelo FLUX.1)

⇡#Eu leio você – e sei onde você mora

Ferramentas generativas são usadas ativamente por usuários particulares e empresas, mas são muito mais amplamente utilizadas por seus próprios desenvolvedores, especialmente aqueles que têm a oportunidade de treinar seus modelos generativos em vastas matrizes de dados originais coletados anteriormente, antes da era da revolução da IA. O Google é provavelmente o primeiro nesta lista com uma série de serviços online populares, começando pelo YouTube: em junho, a empresa confirmou prontamente que, sem qualquer remorso (e em total conformidade com o contrato de licença, aliás – não é culpa dela que na esmagadora maioria dos casos seja clicado sem leitura), treina seus modelos, inclusive nos vinte e poucos bilhões de vídeos que o serviço de vídeo mais popular do planeta acumulou ao longo de sua história. Além disso, as recomendações de IA finalmente começaram a aparecer em seus resultados de pesquisa. No entanto, outro detalhe interessante veio à tona: soluções de terceiros podem usar essa plataforma para coletar dados e, em seguida, extrair informações valiosas deles (usando o modelo generativo Mistral, em particular) – e isso sem o conhecimento da própria plataforma ou de seus usuários. Estamos falando do projeto YouTube-Tools, que, com base no nome da conta que deixou um comentário em um vídeo neste site, busca todos os outros comentários no YouTube enviados por essa conta e, em seguida, cria um perfil muito confiável de seu proprietário – incluindo (se houver dados suficientes para isso, é claro – e os comentaristas mais ativos os têm em abundância) palpites assustadoramente precisos sobre seu local de residência, língua materna e até mesmo opiniões políticas. Este é apenas um exemplo de quão convincentementeFerramentas de IA, que, diferentemente dos robôs de busca, não são restringidas nem mesmo pelas restrições formais do robots.txt, estão martelando o último prego no caixão do “anonimato na Internet” — que, estritamente falando, na verdade nem existia para começar.

«Paz ou guerra? – Sim! (Fonte: Geração de IA baseada no modelo FLUX.1)

⇡#Eles brigam e se divertem

Cada vez que o ChatGPT da OpenAI responde a uma nova solicitação, uma pequena quantia de dinheiro entra nos cofres da Microsoft — a aposta arriscada feita pela empresa de Redmond em 2019 em uma startup ávida por hardware deu resultado. No entanto, o relacionamento entre os parceiros, especialmente no primeiro mês do verão de 2025, dificilmente pode ser chamado de caloroso. Assim, embora se tenha afirmado anteriormente que a organização liderada por Sam Altman tinha tudo em ordem com o hardware para o funcionamento de modelos generativos, já ativo e ainda em desenvolvimento — graças à nuvem da Microsoft — no início de junho, soube-se da intenção da OpenAI de usar o poder computacional do Google Cloud (e, consequentemente, direcionar parte do suborno coletado dos usuários para além dos armazéns de Redmond). Para complicar ainda mais a situação, a divisão DeepMind do Google é uma concorrente direta da OpenAI no mercado de IA, e o ChatGPT, dada a capacidade do modelo 40 mais recente de atualizar e verificar dados de saída, está competindo diretamente com os serviços de busca do Google.

Em meados do mês, fontes do The Wall Street Journal começaram a falar sobre o agravamento das contradições entre a OpenAI e a Microsoft — elas dizem que a primeira está ansiosa para enfraquecer o controle da segunda (seu principal parceiro em termos de volumes de investimento, a propósito) e aprovar uma mudança na forma de propriedade para se tornar uma empresa comercial de pleno direito — caso contrário, a ideia de Altman não será capaz de atrair novos investidores ou abrir o capital. A Microsoft claramente não pretende deixar sair da gaiola de ouro uma galinha dos ovos de alta qualidade — em resposta à qual a OpenAI ameaça acusar publicamente seu principal investidor de comportamento anticompetitivo, a fim de incitar as autoridades antitruste a iniciar uma investigação sobre a justiça dos termos do contrato atual entre elas. De acordo com o Financial Times, este contrato garante à empresa de Redmond acesso à propriedade intelectual da OpenAI até 2030, e só pode ser rescindido se a OpenAI oferecer ao seu maior investidor uma compensação por sua liberdade que seja pelo menos comparável em tamanho ao montante investido e aos lucros recebidos. No entanto, no final de junho, o desentendimento entre as duas empresas havia desaparecido – pelo menos em público: seus chefes discutiram novas cooperações de forma bastante amigável e até tocaram na questão da próxima mudança na forma de propriedade da OpenAI.

«Platão é meu amigo, mas tokens são mais valiosos” (Fonte: geração de IA baseada no modelo GPT-image-1)

⇡#Uma boa alucinação é uma alucinação convincente.

Críticas às alucinações geradas por IA por representantes da comunidade de TI, em sua maioria positivistas — engenheiros, programadores e outros técnicos — parecem, no mínimo, estranhas do ponto de vista de adeptos de outro movimento filosófico, o idealismo objetivo: para eles, o mundo inteiro é a caverna de Platão, e ninguém tem o direito de afirmar que sua interpretação das sombras dançando na parede é mais adequada ao verdadeiro estado das coisas no Universo do que a de outra pessoa. Então, talvez os modelos generativos, quando alucinam, não contradigam a verdade da vida (deixando de lado a questão de se ela realmente existe), mas simplesmente a vejam de seu próprio ponto de vista, inacessível às pessoas? Infelizmente, quando se trata de questões fundamentalmente verificáveis ​​— referências a publicações científicas em periódicos revisados ​​por pares, por exemplo — esse tipo de raciocínio não funciona. Isso é algo que Robert F. Kennedy Jr., o atual Cirurgião Geral dos EUA, descobriu da maneira mais difícil quando seu relatório de comissão de 73 páginas — chamado, é claro, de Relatório MAHA, de Make America Healthy Again — encontrou referências a estudos inexistentes.

Entre as cerca de 5000 referências devidamente formatadas, pelo menos duas apontavam para artigos que nunca haviam sido publicados nas publicações citadas (e os autores da lista posteriormente confirmaram aos jornalistas que não haviam escrito os textos citados). Pior ainda, mesmo estudos citados corretamente nem sempre são interpretados corretamente no relatório: por exemplo, uma referência a um dos estudos é feita em apoio à tese de que “a terapia da fala não é menos eficaz do que o tratamento psiquiátrico baseado em medicamentos”, mas nesta revisão estatística, como se viu, a psicoterapia como método de tratamento não foi considerada de forma alguma. Outro artigo examinou os padrões de sono de estudantes universitários de um ponto de vista médico, e os autores do Relatório MAHA o citaram ao discutir distúrbios do sono em crianças. A rigor, tais erros poderiam muito bem ter sido cometidos por idiotas descuidados, mas vários links no relatório contêm os chamados oaicites (da OpenAI Citation) — marcadores especiais adicionados pelo ChatGPT a URLs que apontam para fontes externas de informação: eles são necessários para rastrear e organizar dados durante a geração de respostas, inclusive durante a cooperação competitiva de agentes de IA paralelos. É considerado uma boa prática remover citações dos links na fase de revisão do material antes da publicação — mas aqui, aparentemente, a participação humana foi mínima, mesmo na fase final de preparação do Relatório MAHA.

«”Basta correr mais rápido, certo?” (Fonte: Geração de IA baseada no modelo FLUX.1)

⇡#Mas o Behemoth ainda não decola

Entre as principais gigantes globais de TI, há duas empresas que estão muito atrás das demais na corrida da TI: a Apple, cujas desventuras generativas aparecem com regularidade invejável, e a extremista Meta*. Esta última claramente decidiu pegar o touro pelos chifres em junho: seu chefe Mark Zuckerberg começou pessoalmente a montar uma equipe de até cinquenta especialistas, chamada, sem falsa modéstia, de “equipe de IA de superinteligência”, que deve garantir o tão esperado avanço da empresa na área pretendida. O mesmo objetivo deve ser alcançado com a compra de uma participação de 49% na startup Scale AI por US$ 14,3 bilhões, juntamente com a contratação de seu chefe Alexander Wang, que deverá eventualmente liderar a “equipe de superinteligência” que está sendo formada atualmente. Zuckerberg foi forçado a dar um passo tão decisivo pela estreia sem brilho do Llama 4, o mais recente BJM do desenvolvimento interno da Meta*, bem como pelo lançamento repetidamente adiado de sua versão Llama 4 Behemoth, anunciada em abril, que deveria reduzir rapidamente a diferença em relação às variedades atuais de GPT e Claude. O líder da empresa extremista não desanima e continua a definir duas metas extremamente ambiciosas para seus subordinados, que devem ser alcançadas até o final de 2025: primeiro, “tornar o chatbot de IA da Meta* a principal IA pessoal”; segundo, “criar uma inteligência forte e completa”. Em particular, está planejado atrair US$ 29 bilhões em investimentos para a construção de data centers nos Estados Unidos de empresas e fundos privados, incluindo Apollo Global Management, KKR, Brookfield, Carlyle e Pimco.

Por sua vez, Sam Altman acusou a Meta* em meados de junho de tentar atrair os melhores desenvolvedores da OpenAI – eles teriam recebido uma oferta de US$ 100 milhões imediatamente após a assinatura do contrato, além de uma remuneração maior do que a de seu local de trabalho atual, mas, no final, ninguém sucumbiu à tentação. A capitalização de mercado da ideia de Zuckerberg gira atualmente em torno de US$ 1,8 trilhão, então este gerente, sem dúvida, não deixará de usar sua alavancagem financeira em todo o seu potencial. O problema, aparentemente, é que não é mais possível atrair os engenheiros e programadores do nível que ele precisa apenas com dinheiro: eles já estão bem com dinheiro e ações; dê a eles problemas interessantes que exigem soluções não triviais. Construir outro BYA, que será simplesmente maior e um pouco mais produtivo do que os atuais líderes de mercado, claramente não se aplica a tais problemas; além disso, você pode fazer isso perfeitamente bem em seu trabalho atual, sem perder o contato com seus colegas ou se distrair com uma mudança de cenário. Aparentemente, a Meta*, assim como a Apple, precisa urgentemente adquirir uma equipe de IA já estabelecida e ambiciosa, atualmente definhando nas sombras, com grande potencial, de preferência nos próximos doze meses. Caso contrário, como acreditam os analistas da Wedbush, a probabilidade de ficar irremediavelmente para trás na corrida da IA, que não está diminuindo, aumentará drasticamente.

Talvez seja precisamente aqui que resida o grande significado evolucionário da revolução generativa – na criação de desafios sem precedentes para o Homo sapiens em todos os níveis de inteligência, desde o escriturário júnior até o principal arquiteto do BNM, no curso da superação dos quais o cérebro biológico receberá um novo e poderoso estímulo para o desenvolvimento – que não teve por pelo menos trinta mil anos?

________________

* Incluído na lista de associações públicas e organizações religiosas em relação às quais o tribunal decidiu liquidar ou proibir atividades que tenham entrado em vigor pelos motivos previstos na Lei Federal de 25 de julho de 2002 nº 114-FZ “ Sobre o Combate às Atividades Extremistas”

admin

Postagens recentes

Hackers white hat revelam senhas de ‘administrador’ e outras falhas de segurança cibernética no Burger King

Os hackers éticos BobDaHacker e BobTheShoplifter anunciaram a descoberta de “vulnerabilidades catastróficas” nos sistemas de…

11 minutos atrás

Microsoft testa novos recursos de IA no Explorador de Arquivos do Windows 11

A Microsoft está testando novos recursos com tecnologia de IA que permitirão que usuários do…

19 minutos atrás

Ex-funcionário processa WhatsApp por ignorar questões de segurança cibernética

Um ex-executivo de alta responsabilidade em segurança cibernética do WhatsApp entrou com uma ação judicial…

2 horas atrás

OpenAI considera sair da Califórnia para reduzir burocracia

De acordo com o The Wall Street Journal, a reestruturação planejada da OpenAI enfrenta obstáculos…

2 horas atrás