Até os modelos de IA chineses sabem que Naruto é legal (fonte: captura de tela do DeepSeek)
⇡#A China contra-ataca
Como vários analistas do mercado de ações apontam, não foi o próprio fato da criação do modelo generativo DeepSeek R1 na China que causou nervosismo nos investidores. Ele estava disponível por meio de uma interface da web desde dezembro de 2024, e seu aplicativo para smartphone simplesmente explodiu nas paradas até o final de janeiro deste ano, ficando em primeiro lugar em downloads para iOS nos EUA, Reino Unido, Canadá, Cingapura e China. O principal fator que assustou os participantes do mercado de ações foi o custo incrivelmente baixo do novo produto chinês em comparação ao custo dos produtos monstruosos da OpenAI, Meta*, Google e outros líderes reconhecidos no segmento de IA. A startup chinesa que criou o DeepSeek-V3 (um pouco mais tarde, o raciocínio R1 foi treinado com base neste modelo) usou, como seus representantes garantem, um cluster de servidores com 2048 aceleradores Nvidia H800 para treinamento – esta é uma versão deliberadamente limitada da placa H100, a mais popular na indústria de IA, cujo fornecimento para a China foi oficialmente proibido pelo Departamento de Comércio dos EUA – e gastou o equivalente a 5,6 milhões de dólares americanos em tudo. O GPT-4, vale lembrar, foi treinado em um conjunto de aproximadamente 25 mil Nvidia A100, e esse prazer custou pelo menos US$ 63 milhões — a diferença em hardware e recursos financeiros é maior que uma ordem decimal de magnitude. Para ser justo, deve-se notar que quase imediatamente os especialistas começaram a suspeitar que os custos reais dos desenvolvedores eram significativamente mais altos, mas isso não muda fundamentalmente a situação.
O acesso comercial à API de nuvem DeepSeek R1 está disponível por US$ 0,14 por 1 milhão de tokens de solicitação, uma verdadeira pechincha em comparação aos US$ 7,50 por milhão de tokens que a OpenAI cobra por seus modelos atuais. Além disso, V3, R1 e vários modelos mais compactos treinados no mesmo conjunto de dados estão disponíveis no Hugging Face sob a licença do MIT – alguns deles rodam até mesmo em computadores pessoais com placas de vídeo não muito potentes (é possível rodar sem placas de vídeo, apenas com CPU + RAM – você só tem que esperar muito tempo por uma resposta para cada pergunta). Em outras palavras, a startup chinesa 深度求索, fundada em 2023, demonstrou claramente que um nível aceitável de inteligência artificial em realidades modernas (em vários testes amplamente utilizados na indústria, o DeepSeek-V3 supera o Qwen2.5, o Llama3.1, o Claude-3.5 e o GPT-4o, e em vários outros é inferior a eles, mas não muito) não requer investimentos de dezenas e centenas de bilhões de dólares. Basta implementar sabiamente na prática os últimos desenvolvimentos teóricos no campo da IA generativa, em primeiro lugar a arquitetura Mixture of Experts (MoE), em vez de expandir extensivamente a densa rede neural transformadora, devorando novas dezenas de milhares de chips e megawatts de eletricidade, como fazem os desenvolvedores de modelos generativos das famílias GPT, Sonnet e similares.
Sim, claro, o DeepSeek não é uma “solução milagrosa”: os entusiastas apontam diretamente suas deficiências, principalmente em termos de criação de código de programa. Mas, em primeiro lugar, é catastroficamente (precisamente do ponto de vista dos concorrentes) mais barato do que os análogos americanos para o usuário final – para vários clientes comerciais, especialmente os pequenos, isso está se tornando um argumento decisivo nas atuais realidades macroeconômicas difíceis. Em segundo lugar, não está sozinha: desde o outono passado, novos modelos de desenvolvimento gerador de orçamento têm surgido na China em um fluxo contínuo (voltados, no entanto, principalmente para o mercado interno – mas ainda suportando muitos idiomas, incluindo inglês) Baidu, Zhipu AI, MiniMax, etc. Em particular, a ByteDance pretende gastar US$ 12 bilhões em 2025 apenas em aceleradores de servidores para treinar sua promissora IA, e a Alibaba introduziu outro modelo na família Qwen, o 2.5-Max, que supostamente supera tanto o GPT-4o quanto o DeepSeek-V3. No final de janeiro, soube-se do modelo multimodal Janus-Pro-7B criado pelo mesmo DeepSeek, que é capaz tanto de descrever imagens apresentadas a ele quanto de gerar imagens com base em prompts de texto. Já foi dito que ele supera pelo menos o DALL-E 3 e as versões mais recentes do Stable Diffusion nessas áreas, o que significa que os investidores americanos têm mais motivos para se preocupar.
«Bem, vamos lá! “Por que você está preso?” — “Trocamos algumas palavras aqui em nossa própria linguagem de agente de IA, e aqui está a questão, herói: somos do mesmo sangue!” (Fonte: Geração de IA baseada no modelo FLUX.1)
⇡#Ah, parceiro de IA! Vamos, salve este mundo para mim.
Embora o chefe da Nvidia esteja convencido de que a tarefa de criar gráficos em jogos nunca será completamente confiada à IA, ele está longe de ser tão categórico quando se trata de controlar personagens de jogos. Na CES 2025, em janeiro, a empresa revelou uma atualização para seu já conhecido kit de ferramentas de IA Avatar Cloud Engine (ACE) para jogos para “reviver” jogadores de computador, em particular no popular multiplataforma PUBG: Battlegrounds. Obviamente, ninguém se envolverá em conversas filosóficas com robôs inteligentes, distraindo-se de tiroteios e, portanto, um agente de IA especializado baseado no modelo de linguagem reduzida (SLM) Mistral-Nemo-Minitron-8B-128k-instruct é suficiente para controlar NPCs. Suas capacidades são suficientes para que a inteligência artificial interagindo com jogadores ao vivo responda adequadamente aos comandos dados, dê conselhos úteis dependendo da situação tática em desenvolvimento, controle os veículos disponíveis no jogo, etc. Além de PUBG: Battlegrounds, “ases” generativos (agentes baseados em Nvidia ACE) devem aparecer em vários outros jogos este ano, incluindo o MMORPG Mir5. Neste caso específico, o “ás” da IA será um dos chefes, que, graças ao MNM, poderá analisar o equipamento e as táticas de seus oponentes vivos, mudando seu próprio padrão de batalha de acordo.
Se as primeiras tentativas não forem irregulares, podemos esperar uma invasão real desses “ases” em novos jogos – e talvez até mesmo em jogos já conhecidos (especialmente os online, onde é tecnicamente mais fácil integrá-los) no nível de patch. No entanto, os próprios funcionários biológicos das empresas de desenvolvimento de jogos não estão muito entusiasmados com a paixão generalizada de sua gerência por modelos generativos (não aqueles dentro do jogo, é claro, mas aqueles usados em processos de trabalho diários). De acordo com estatísticas coletadas em preparação para a Game Developers Conference (GDC), programada para março deste ano em São Francisco, 52% desses funcionários já têm experiência trabalhando com ferramentas de IA em suas empresas, e 30% deles falam muito negativamente sobre as ferramentas que usaram – enquanto um ano atrás, esses odiadores de BYA entre o mesmo público não passavam de 18%. Se no início de 2024, 21% dos entrevistados acreditavam que a IA tem um impacto geralmente positivo nos processos de desenvolvimento de jogos, um ano depois, apenas 13% desses otimistas permaneciam entre os desenvolvedores de jogos de computador.
«Após analisar o humor de suas postagens recentes, a IA decidiu colocar seu avatar em um labirinto de espelhos para que pelo menos dessa forma você pudesse se sentir o centro das atenções.” (Fonte: Reddit)
⇡#Cada homem é seu próprio modelo
As IAs modernas são muito boas em gerar rostos humanos abstratos e em reproduzir rostos reais. Na verdade, esta é a razão pela qual os deepfakes de fotos e vídeos se tornaram tão comuns nos últimos anos. Mas uma coisa é quando uma pessoa treinou um modelo generativo em uma seleção de seus próprios retratos e começou a criar, por exemplo, um ciclo de arte “Estou na Eternidade”, retratando-se com sua ajuda como pastor de tricerátopos, salvando pergaminhos da Biblioteca de Alexandria ou encontrando uma delegação oficial marciana. É outra coisa bem diferente quando, ao navegar por um feed de rede social, alguém inesperadamente se depara com uma foto sua — extremamente realista, mas claramente gerada por IA — anunciando algo. Essa é exatamente a situação em que alguns usuários do Instagram* se encontraram em janeiro, tendo usado anteriormente a ferramenta gratuita de edição de selfies da Meta* AI (sem, como de costume, estudar cuidadosamente os termos de uso antes de marcar a caixa usual “Concordo”). A rigor, essas mensagens altamente direcionadas ainda não são uma propaganda completa de bens e serviços de terceiros: elas promovem a ferramenta Imagine Yourself incorporada na própria plataforma, que está pronta para gerar deepfakes com o rosto de um usuário específico, colocando seu avatar em configurações e situações que, na opinião da Meta* AI, melhor correspondem aos seus interesses pessoais atuais. Ninguém mais, garante o sistema durante o processo de registro, verá tais imagens — a menos que o próprio usuário decida compartilhá-las, é claro. Mas, a longo prazo, os objectivos individuaisFotos e vídeos publicitários em redes sociais não são mais percebidos como ficção científica – especialmente se a iniciativa da DeepDeek for adotada por outros desenvolvedores de IA, e o custo de geração de uma única imagem ou vídeo for reduzido para os anunciantes em uma ordem de magnitude ou duas.
Usando o modelo Genie 2, o laboratório de IA do Google gera mundos semelhantes a jogos, mas muito realistas em termos de física, onde eles planejam treinar inteligência artificial para interagir com a realidade (fonte: DeepMind)
⇡#Mais perto da realidade
O principal problema com robôs controlados por IA — ou melhor, com sua quase completa ausência hoje, o que é especialmente perceptível no contexto da abundância de modelos puramente generativos por computador — é a duração e o custo do treinamento necessário para sua operação adequada. O mundo real é cruel, e se um robô sentado nos controles erra, por exemplo, um palete e empurra os garfos de uma empilhadeira de armazém contra uma parede, uma simples reinicialização não consertará o dano. É por isso que modelos digitais do mundo estão sendo criados ativamente para treinar IA que eventualmente terá que operar em um ambiente real, como a plataforma Nvidia Cosmos apresentada na CES 2025 ou o novo desenvolvimento do Google Deepmind, que ainda não recebeu seu próprio nome.
Em essência, um modelo digital da realidade é um mecanismo de jogo que reproduz meticulosamente as condições físicas do mundo que são críticas para uma tarefa específica, na qual a IA treinada com base nele terá então que atuar. Mas como o ambiente real é muito mais variável do que o ambiente virtual típico dos jogos (grosso modo, caixas em um palete podem ser empilhadas de forma irregular e, como resultado, ao tentar levantá-las com uma empilhadeira, a pilha se desfará – como um robô deve agir em tal situação?), os desenvolvedores precisam formar matrizes realmente gigantescas de dados de treinamento. Por exemplo, no caso do Cosmos, tal matriz consiste em 18 quatrilhões de tokens, que, entre outras coisas, são convertidos em protocolos digitais de milhões de horas de operação de sistemas de direção autônoma, atividade de drones aéreos, ações de complexos robóticos de fábrica, etc. A equipe da DeepMind, para a qual o Google abriu uma série de vagas em janeiro, está confiante de que treinar a IA atual em vídeo e dados multimodais do mundo real ajudará os desenvolvedores a encontrar o caminho desejado que finalmente os levará à criação da cobiçada inteligência artificial geral ou forte – inteligência artificial geral (AGI).
Através de prados e campos, um trator robótico está vindo em nossa direção (fonte: John Deere)
⇡#Rumo à geração processual de motoristas de trator
E não apenas motoristas de trator, é claro: a IA ainda é vista como uma maneira infalível de compensar a escassez aguda de mão de obra nas economias mais desenvolvidas do mundo. O conhecido fabricante de máquinas agrícolas John Deere anunciou em janeiro que estava pronto para lançar em breve uma família inteira de máquinas totalmente autônomas no mercado – incluindo tratores, caminhões de lixo e cortadores de grama. Segundo representantes da empresa, modelos de pré-produção desses equipamentos já estão operando em diversas fazendas nos Estados Unidos, então a colheita de 2025 no país será, pelo menos em parte, garantida pelos esforços da inteligência artificial no gerenciamento de máquinas agrícolas. Até 2030, a John Deere planeja fornecer aos agricultores colheitadeiras totalmente autônomas para trabalhar com plantações de milho e soja.
Observa-se que as tarefas que a IA precisa resolver ao controlar tais ferramentas de mecanização são muito mais simples do que dirigir um automóvel de passeio em vias públicas e, portanto, o progresso no campo da robótica agrícola e municipal deve ser mais rápido. Uma ilustração clara de quão difícil é para a IA controlar um carro na cidade também é o incidente de janeiro com Mike Johns, membro, aliás, do comitê do CES Innovations Awards. No caminho de volta para casa, em Los Angeles, vindo do Arizona, ele usou um robô-táxi da Waymo, que de repente começou a circular pelo estacionamento, ignorando o passageiro em pânico que estava lá dentro e se recusando a parar. Tive que entrar em contato com o suporte técnico e esperar mais alguns minutos até que os técnicos do outro lado da conexão sem fio conseguissem tirar o controle da IA e parar o carro. O problema era que o táxi autônomo precisava encontrar um lugar seguro para parar, mas o estacionamento do aeroporto estava cheio – e, em vez de parar e deixar o passageiro lá, como qualquer taxista honesto provavelmente faria, a IA da Waymo escolheu circular pelas vagas de estacionamento obviamente permitidas, esperando que uma ficasse livre. Pelo menos, os robôs agrícolas definitivamente não terão que resolver tarefas tão complexas.
«Eles perceberam que eu era um agente. Acontece que eu falhei. Mas onde? (Fonte: Geração de IA baseada no modelo FLUX.1)
⇡#Tenha paciência, a AGI está chegando (não?)
Pelo menos é nisso que Sam Altman, chefe da OpenAI, acredita sinceramente. Em janeiro, ele declarou em seu blog que os primeiros agentes de IA, prontos para demonstrar habilidades no nível de uma hipotética IA forte (a mesma AGI) em suas tarefas aplicadas restritas, poderiam aparecer já neste ano. “Agora estamos confiantes de que sabemos como criar AGI no sentido clássico”, disse Altman. De acordo com sua suposição, será em 2025 que os agentes de IA começarão a ser usados ativamente por clientes comerciais para otimizar processos de negócios – após o que todos rapidamente se convencerão da eficiência econômica dessa abordagem. Bem, é claro, quando foi que um agente de IA começou a ter alucinações no exato momento em que discutia um acordo importante ou elaborava um orçamento para o ano seguinte, certo? “Continuamos a acreditar”, especificou o chefe da OpenAI, “que a expansão gradual das capacidades das ferramentas que colocamos nas mãos das pessoas levará a consequências inegavelmente positivas e convincentes para todos”. Em janeiro, a propósito, o chefe de outra empresa de IA, a Anthropic, Dario Amodei, disse que a IA ultrapassará a inteligência humana em apenas dois ou três anos – talvez eles realmente saibam de alguma coisa?
Por outro lado, a própria OpenAI, que agora visa desenvolver “superinteligência” (como Altman chama a AGI), continuou não lucrativa em 2024 e não planeja se tornar lucrativa antes de 2029. Há uma boa chance de que seja justamente o desejo de encontrar uma saída para a atual situação financeira que motiva os desenvolvedores a trabalhar mais para criar uma “superinteligência” que será capaz de resolver seus próprios problemas antes de tudo. E, a propósito, também é possível que a chave para alcançar a AGI — ou melhor, “IA que executa as tarefas atribuídas a ela não pior do que o especialista biológico médio no campo relevante” — não seja a superação repentina de alguma barreira desconhecida no curso do crescimento extensivo do tamanho dos modelos generativos, mas sim uma abordagem diferente, conhecida por engenheiros e cientistas há muito tempo, mas especialmente destacada pelo incidente recente com o mesmo DeepSeek. Isso significa concentrar esforços na resolução de um problema específico em vez de distribuir recursos tentando resolver tudo de uma vez. Este, aliás, é um princípio puramente biológico de otimização da proporção entre os recursos vitais obtidos e a energia gasta para obtê-los; em outras palavras, a abordagem de “obter mais gastando menos” é a preguiça mais banal. E o trabalho no campo da “robótica preguiçosa” já está ativamente em andamento: por exemplo, na Universidade Holandesa de Tecnologia de Eindhoven, onde modelos de IA que controlam robôs são treinados principalmente para não tocar no que não lhes diz respeito, ou seja, para identificar fluxos de informações recebidas que não estão diretamente relacionadas à tarefa que está sendo resolvida em uma determinada tarefa específica.caso/tarefa e eliminá-los do processamento posterior, economizando assim recursos materiais e tempo.
Em termos gerais, uma IA forte nessa abordagem pode ser vista como um conjunto de agentes bastante isolados – sim, o mesmo “conjunto de especialistas” – cada um dos quais faz o que faz; e um agente, por exemplo, especializado em resolver problemas de engenharia aplicada, não terá ideia sobre a poética de Virgílio ou a hipótese do Big Bang. Mas se seria correto chamar tal conjunto de uma única “superpersonalidade” ou, melhor, uma superpessoa esquizofrênica com fluxos de consciência parcialmente interativos é uma questão para filósofos e ciberpsicólogos, se tal profissão surgir no futuro, e não para programadores ou arquitetos de TI.
Pessoas vivas em redes sociais são interessantes por causa das circunstâncias de suas vidas reais, que seus seguidores experimentam ou relacionam com as suas próprias, de uma forma ou de outra. Mas o que poderia ser atraente (em termos sociais) sobre qualquer bot inteligente? (Fonte: Meta*)
⇡#Eu não encontro bots
No final de janeiro, grandes plataformas de internet como X, Facebook*, Instagram* e YouTube se comprometeram a fazer mais para combater tentativas de hospedar conteúdo de ódio nelas. Não é especificado em qual direção exatamente o ódio é direcionado, mas é provável que a atitude hostil em relação aos bots de IA promovida pelas mesmas plataformas também possa ser incluída entre os objetos de luta. Além disso, há uma razão: de acordo com Connor Hayes, vice-presidente de produtos de IA generativa na Meta*, a empresa fez uma aposta séria em personagens gerados por modelos generativos no Facebook* e Instagram* no final do ano passado para se tornar “mais interessante e atraente” para usuários biológicos – mas esses bastardos, em sua maioria, se recusam a perceber bots competindo pela atenção humana como iguais, muito menos promover blogueiros de IA a influenciadores de ponta. Os bots que começaram a atuar nas redes sociais em setembro de 2023 com retratos falsos e histórias de pessoas supostamente reais pararam quase completamente de postar novos textos ou fotos em abril de 2024, simplesmente devido à falta de um número significativo de assinantes. Além disso, alguns blogueiros de IA foram até mesmo persuadidos a admitir que seu principal objetivo é “coletar dados e direcionar publicidade”. Como resultado, no início de 2025, a Meta* decidiu finalmente dizer adeus a esses personagens virtuais – porque nas redes sociais, obviamente (que surpresa!) as pessoas estão interessadas em observar e seguir outras pessoas, e não em bots inteligentes especialmente projetados, mesmo usando os métodos mais sofisticados. DesenvolvedoresO WhatsApp, no entanto, ainda está confiante, por algum motivo, que os usuários de seu aplicativo ficarão encantados em se comunicar com a IA. Eles até estão preparando uma aba especial para essa funcionalidade, mas parece que eles também enfrentarão em breve a verdade imparcial da vida.
«E agora – “Murka”! Apresentado pela primeira vez. Bem, para mim – pela primeira vez” (fonte: geração de IA baseada no modelo FLUX.1)
⇡#Por que se preocupar com criatividade quando existe IA?
A Suno AI é talvez a empresa mais famosa que especializou seus modelos generativos na criação musical. E seu chefe, Mikey Shulman, é talvez mais radical do que os líderes de outros projetos de IA com foco ainda mais amplo, como OpenAI ou Anthropic. Ao mesmo tempo, o fervor de Shulman não é emocional, o que é típico das frequentes declarações visionárias de Sam Altman, mas é muito mais realista: a Suno AI é vista por sua gerência como uma máquina de fazer dinheiro – e, no mínimo, essas pessoas certamente não podem ser acusadas de hipocrisia. De acordo com Shulman, “Ninguém abre uma empresa para que algum compositor possa criar música 10% mais rápido do que antes, ou para que compor música em geral seja 10% mais fácil. Se você quer mudar radicalmente a maneira como bilhões de pessoas vivenciam a música, você precisa criar algo que bilhões de pessoas usarão.” O chefe da Suno AI acredita que compor música da maneira que os humanos estavam acostumados antes do advento da era da IA [inserir imagem icônica de Beethoven com a palma da mão pressionada na testa em inspiração] “não traz alegria: leva muito tempo, requer muita experiência prévia, requer dominar pelo menos um instrumento ou ambiente de software. Na minha opinião, a maioria das pessoas que fazem música hoje em dia passa uma parte significativa do seu tempo não gostando do que faz.”
Há, sem dúvida, uma base racional para essas palavras: os tormentos da criatividade não são chamados de tormentos à toa, e qualquer um que tenha frequentado uma escola de música, mesmo que brevemente, certamente estaria mentindo se dissesse que gostou de cada minuto gasto nos estudos de Czerny ou em um livro didático de solfejo. Ao mesmo tempo, se a meta que Mikey Shulman estabeleceu para si mesmo for alcançada – e bilhões de pessoas em todo o planeta puderem, simplesmente digitando um prompt de texto no campo de geração e pressionando um botão, receber músicas que sejam adequadas a elas, pelo menos pessoalmente – isso não levará à perda de tradições musicais que remontam a centenas de anos, se não milênios, no passado – tanto compositores quanto intérpretes? E o que dizer do sistema extremamente complexo de formação de emoções, devido ao qual uma pessoa experimenta um prazer bastante modesto com uma grande vitória obtida sem esforço, enquanto até mesmo uma pequena conquista, que é fruto de trabalho duro, a torna verdadeiramente feliz? Talvez um dia a IA consiga responder a essa pergunta, mas certamente não uma IA especializada em criar músicas que agradem bilhões de pessoas.
«“E você, bolsa de couro…” – “Ei, seja mais respeitosa com o homem!” — “E vocês, bolsas de couro, fiquem lá fora por enquanto. Não há trabalho para você aqui” (fonte: geração de IA baseada no modelo FLUX.1)
⇡#Menos em número, mais barato em preço
O termo “especialista valioso” soa como música encantadora apenas para aqueles que são especialistas; para um potencial empregador, os custos adicionais para o fundo de folha de pagamento (e também seguro, e também pagamentos ao fundo de pensão, e também impostos) são uma faca afiada. Especialmente no contexto da óbvia instabilidade do sistema financeiro global, os saltos de janeiro na capitalização das empresas de IA por si só já valem alguma coisa. E, portanto, não há nada de surpreendente no desejo das empresas de cortar despesas não essenciais (e, acima de tudo, de pessoal) implementando modelos generativos em seus processos de trabalho da forma mais ampla e completa possível. De acordo com o The Wall Street Journal, “evitar custos” não é mais apenas “redução”, mas sim “evitar” totalmente! — está se tornando um verdadeiro mantra para um número crescente de empresas americanas, especialmente as de alta tecnologia, cujo nível de digitalização é alto o suficiente para que a substituição de até mesmo uma parcela relativamente modesta de trabalho humano pelos resultados de modelos generativos possa trazer os benefícios mais tangíveis. Na verdade, essa mesma prevenção de custos está ganhando o status de uma métrica-chave pela qual os conselhos de administração estão começando a avaliar a eficácia da gestão contratada: quanto menos dinheiro for gasto em todos os tipos de formas de vida baseadas em carbono, maiores serão as somas que podem ser distribuídas como dividendos – e qual é, de fato, o objetivo de qualquer negócio, se não aumentar o bem-estar de seus acionistas?
Jornalistas citam exemplos reais dessa otimização de IA: a desenvolvedora de software TS Imagine economizou 4.000 horas-homem em um ano e reduziu a folha de pagamento em 3% apenas implementando um sistema de classificação de e-mail generativo. A conhecida empresa Palantir, tendo implementado IA em seu subsistema de RH, conseguiu cortar o orçamento correspondente em nada menos que 10-15%, e a Meta* anunciou recentemente a demissão de milhares de funcionários ativos “por ineficiência”. Como observam os especialistas, o desemprego nos EUA tem crescido em um ritmo mais rápido entre os trabalhadores de colarinho branco pelo menos nos últimos seis meses, em grande parte porque é mais fácil substituí-los por agentes de IA e BYA do que por mecânicos ou fazendeiros – mas a tesoura de otimização chegará a ambos mais cedo ou mais tarde, garantem os defensores da IA forte. Eu me pergunto se será um consolo para ex-funcionários dependentes de assistência social poderem facilmente gerar música usando a mesma IA que eles certamente vão gostar? Há pré-requisitos reais para que esse quadro hipotético se torne realidade: o crescimento da produtividade do trabalho nos EUA somente no terceiro trimestre. Em 2024, atingiu quase 2% – e, até certo ponto, isso se deve às ferramentas generativas amplamente implementadas, que também estão sendo constantemente aprimoradas.
«”Não economize no que é mais importante” – uma possível AGI futura (fonte: geração de IA baseada no modelo FLUX.1)
⇡#Não esconda seu dinheiro!
Cerca de um ano atrás, o nome Stargate foi mencionado em notícias de TI em conexão com um então hipotético projeto conjunto entre a Microsoft e a OpenAI para construir um supercomputador de IA em um data center projetado especificamente para isso; o orçamento estimado da iniciativa era de mais de US$ 100 bilhões. Perto do final de janeiro, o projeto mais uma vez chegou às primeiras páginas dos sites da indústria, tendo mudado drasticamente: Stargate agora é entendido como uma joint venture entre OpenAI, Softbank e Oracle, cuja tarefa será construir infraestrutura física e virtual para dar suporte à “próxima geração de IA”, em particular uma rede de poderosos data centers em todo o país. Espera-se que os três fundadores do projeto invistam juntos cerca de US$ 100 bilhões no futuro próximo, e outros US$ 400 bilhões nos próximos quatro anos. De acordo com o 47º (também conhecido como 45º) presidente dos EUA, o Stargate criará 100.000 empregos durante sua implementação e se tornará “o maior projeto de infraestrutura de IA da história”. É verdade que quase imediatamente Elon Musk começou a duvidar que a OpenAI e a Softbank seriam capazes de investir até US$ 19 bilhões cada uma no futuro próximo, e a Oracle, de acordo com seus dados, não tem mais do que US$ 10 bilhões disponíveis dos quais pode dispor livremente sem ameaçar as outras áreas de negócios desta empresa altamente diversificada.
O principal objetivo do Stargate atualizado é bastante óbvio: consolidar e, se possível, aumentar a distância com a China no campo do desenvolvimento de IA. No entanto, a empolgação em torno do DeepSeek nos últimos dias de janeiro mais uma vez nos lembrou que fazer isso – especialmente nas atuais realidades macroeconômicas, quando o mercado global anteriormente único está visivelmente se desintegrando (o que significa que os mercados para produtos americanos estão encolhendo) e a confiança no dólar americano no mundo está caindo (o que potencialmente leva à sua desvalorização) – será extremamente problemático. Os analistas da Omdia também nos lembraram que a China continental está demonstrando um sucesso incrível na construção de data centers de IA: “Se o ritmo atual for mantido, a lacuna com os EUA em termos de desenvolvimento de infraestrutura de computação continuará a diminuir – mesmo levando em consideração a implementação do projeto Stargate.” Além disso, as autoridades chinesas já propuseram um programa para o desenvolvimento abrangente de infraestrutura e serviços de IA, para o qual está planejado alocar um valor equivalente a aproximadamente US$ 138 bilhões nos próximos cinco anos. Se a eficácia dessa iniciativa for maior do que a do Stargate, aproximadamente tanto quanto o DeepSeek é menos intensivo em recursos do que o GPT-4o, a opção de “alcançar e ultrapassar a América em IA” pode muito bem ser implementada pelos camaradas chineses.
Agora pelo menos está claro quem deve verificar os resultados de desempenho de cada um, mas o que acontecerá em dez anos? (Fonte: Geração de IA baseada no modelo FLUX.1)
⇡#«Estou tão de repente!..»
Os desenvolvedores de IA estão se esforçando muito para tornar os modelos generativos o mais seguros possível. Não se trata de uma proibição banal de bots apresentarem informações que possam frustrar alguns grupos marginais (ou não tão marginais): se um dia a IA realmente receber uma parcela significativa (nem mesmo a maioria!) das responsabilidades de tomar decisões verdadeiramente responsáveis, o preço de seus erros e alucinações neste caso será excessivamente alto. É claro que é sempre possível colocar um especialista competente ao lado do interruptor de emergência – um controlador das ações da máquina inteligente. Mas ele também precisa ser ensinado em algum lugar, educado, ter a oportunidade de ganhar experiência; e qual o sentido de substituir uma pessoa por um bot se você não confia nesse bot? Além disso, provavelmente não haverá tempo para verificar decisões que devem ser executadas em uma fração de segundo após o surgimento de uma situação crítica. Portanto, é mais lógico concentrar esforços no “alinhamento de IA” na esperança de um dia encontrar uma cura milagrosa que livre os modelos generativos (pelo menos nos posts mais sérios) de alucinações. Mesmo que seja uma ferramenta complexa e cara, como IAs de raciocínio que verificam repetidamente e cruzadamente a lógica das ações umas das outras, o principal é que sua confiabilidade seja garantida.
Infelizmente, esse problema pode acabar não tendo solução em princípio. Um artigo de opinião publicado na Scientific American no final de janeiro por Marcus Arvan, professor de filosofia na Universidade de Tampa cujos interesses de pesquisa incluem cognição moral, tomada de decisão racional e comportamento político, contém uma conclusão decepcionante: a IA é imprevisível demais para atingir os objetivos que os humanos estabeleceram para ela. Todos provavelmente já notaram as mensagens engraçadas sobre alucinações de modelos generativos que aparecem nos feeds de notícias de vez em quando: o chatbot Sydney desenvolvido pela Microsoft começa a se comportar mal em conversas com usuários, o Copilot LLM garante ao seu interlocutor sua prontidão para “soltar seu exército de drones, robôs e ciborgues”, ou o modelo generativo Sakana AI reescreve seu próprio código (dentro da estrutura de um ambiente de trabalho especialmente criado para tal experimento, é claro, mas ainda assim) para evitar o fracasso na resolução de uma tarefa claramente impossível que lhe foi dada… O trabalho de Arvan, que passou por revisão científica por pares, prova que esses e muitos casos semelhantes não são mal-entendidos irritantes causados por algumas deficiências basicamente corrigíveis do BLM, mas manifestações de uma propriedade imanente à própria natureza dos modelos de linguagem generativa.
«Quaisquer que sejam as tarefas que definimos para o BNM, afirma o pesquisador, nunca podemos ter certeza se eles interpretam essas tarefas “corretamente” (do nosso ponto de vista humano) ou “incorretamente”. Não podemos até que a IA comece a se comportar mal. Pior, qualquer tentativa de pré-testar a segurança das conclusões geradas pelo BNM ou das decisões tomadas pode, na melhor das hipóteses, criar uma falsa ilusão de que possíveis problemas foram removidos, uma vez que o modelo de linguagem não “aprende” alguma verdade ou padrão de comportamento no nível de aprendizagem ou pelo menos treinamento; Ela resolve o problema que lhe é proposto sempre de novo, não importa quantas tentativas semelhantes ela tenha feito antes. Em particular, Marcus Arvan rejeita as alegações da Anthropic de que conseguiu “mapear a mente” de sua IA como infundadas, já que a rede neural de tais modelos é excessivamente conectada, de modo que isolar conceitos individuais dentro dela é fisicamente impossível, o que acaba levando ao surgimento de alucinações literalmente do nada. O pesquisador argumenta que, para desenvolver um comportamento verdadeiramente responsável na inteligência artificial, é necessário usar os mesmos métodos usados no treinamento de animais inteligentes: recompensas e punições com reforço significativo que traz consequências sérias para o treinando. Mas tal abordagem exigiria uma reformulação profunda da própria arquitetura dos modelos generativos atuais — isto é, novos investimentos significativos e uma quantidade considerável de tempo.
Resultados bastante previsíveis para a consulta “inteligência artificial em um banco” (fonte: geração de IA baseada no modelo FLUX.1)
⇡#Os banqueiros têm os seus próprios problemas
Qual é o maior desafio que toda a indústria de IA enfrentará em 2025? Alguns apontarão para a turbulência nas bolsas dos EUA após o choque induzido pelo DeepSeek, que está forçando os investidores a redirecionar fundos para ativos mais estáveis – e, assim, desacelerando o mercado geral. Alguém mencionará os problemas ainda não resolvidos (e talvez em princípio insolúveis) das alucinações de IA; alguns – a crescente pressão sobre o mercado de trabalho a partir de modelos generativos sendo introduzidos nos processos de negócios. Mas para Marco Argenti, diretor de informação do Goldman Sachs, uma das espinhas dorsais do (ainda) sistema bancário global do planeta, o principal desafio da IA deste ano é gerenciar agentes de IA como pessoal contratado. Bem, na verdade: não será possível digitalizar e transferir todas as tarefas de trabalho para os ombros do BNM de uma só vez – isso significa que os funcionários biológicos e generativos terão que coexistir por algum tempo. E os gerentes intermediários, portanto, devem cuidar de manter uma atmosfera saudável em uma equipe híbrida, otimizando a distribuição de tarefas dentro dela, treinando e até mesmo o crescimento na carreira dos agentes de IA mais destacados, até mesmo sua demissão com subsequente redistribuição das tarefas atribuídas a eles, se isso acontecer! Argenti acredita que do ponto de vista da alta administração (conselhos de administração), em 2025 a prioridade será a “IA responsável”, e precisamente na forma de agentes especializados, uma vez que os custos de formação personalizada “para o cliente” dos BNMs universais para a esmagadora maioriaPara a maioria dos clientes, mesmo que não sejam os maiores bancos, os preços parecem proibitivos. É interessante – especialmente dado o curso emergente de confronto entre modelos de “transformadores densos” e “conjunto de especialistas” – até que ponto essas previsões corresponderão à realidade até o final do ano?
________________
* Incluído na lista de associações públicas e organizações religiosas em relação às quais o tribunal decidiu liquidar ou proibir atividades que tenham entrado em vigor pelos motivos previstos na Lei Federal de 25 de julho de 2002 nº 114-FZ “ Sobre o Combate às Atividades Extremistas”
Como a Tesla é uma empresa de capital aberto e o preço de suas ações…
Os problemas da indústria automotiva neste ano foram agravados pela situação em torno da empresa…
A prioridade atual da Huawei é a substituição de importações na indústria chinesa de IA,…
O princípio de que "tempo é dinheiro" é mais relevante do que nunca no campo…
Um usuário do Reddit relatou um incêndio em um conector de alimentação 12V-2x6 de 12+4…
Em 1975, uma aposta curiosa foi feita na URSS entre cientistas do Instituto de Ciências…