⇡#Precisa de mais ouro
A inteligência artificial é uma proposta cara. Tão caro que, no verão, os magnatas de Wall Street condenaram as quatro grandes IA – Amazon, Microsoft, Meta* e Alphabet – por serem um desperdício excessivo, na opinião de financiadores experientes. Na verdade, em vez de – como convém às sociedades por acções decentes da era do monetarismo desenvolvido – retirar os lucros recebidos inteiramente como dividendos e pedir empréstimos de bancos e fundos de investimento para despesas operacionais e desenvolvimento futuro (o que, por sua vez, oferecerá voluntariamente as melhores condições para o mutuário, cujas ações estão subindo), esses rebeldes estão investindo freneticamente o dinheiro ganho honestamente – tirando-o dos lábios frios das partes interessadas, em essência – diretamente no desenvolvimento de IA, data centers de IA e outras atividades relacionadas a modelos generativos. E agora, como relata a Bloomberg, as despesas totais de capital das quatro grandes IA aumentarão ainda mais, apesar de todos os avisos dos corretores de ações, superando os resultados só deste ano, segundo a estimativa mais conservadora, 200 mil milhões de dólares americanos (e em 2025, você vê, chegará a 300 bilhões).
Para efeito de comparação: todo o programa de modernização do componente terrestre das forças nucleares estratégicas americanas, que se estendeu por anos, custará aproximadamente o mesmo valor (substituição de 400 mísseis implantados e 50 mísseis Minuteman III em reserva por 400 + 250 novos Sentinel, além da conversão das ogivas W78 e W87 em ogivas universais W87-1). Os CEO das principais empresas digitais do planeta estão a tranquilizar os accionistas com lembretes de que os investimentos a longo prazo em infra-estruturas são normais (os mesmos centros de dados não são construídos num mês ou mesmo em seis meses, e também precisam de cuidar do seu fornecimento de energia). , e que os investimentos actuais serão certamente compensados a médio prazo. E a julgar pelo facto de as ações da notória Meta* terem subido de preço 60% desde o início do ano, os investidores, como observou acertadamente um dos especialistas em bolsa citados pela Bloomberg, “já estão bastante habituados a perceber a calma como uma virtude.”
⇡#Pesquise, IA! Procurar!
Em meados deste ano, a OpenAI testou ativamente o mecanismo de busca generativo SearchGPT – no entanto, no final do ano, anunciou que não o lançaria no mercado como um produto separado, mas simplesmente integraria recursos de busca no ChatGPT. No início, os assinantes pagos do serviço puderam avaliá-los e, mais perto de meados de novembro, todos os demais usuários puderam avaliá-los. O próprio bot inteligente determina se os dados nos quais foi inicialmente treinado são suficientes para responder à próxima solicitação ou se é necessário usar uma pesquisa na web. Para confirmar a relevância das informações oferecidas, as respostas são acompanhadas de links para as fontes online utilizadas. A nova funcionalidade do chatbot foi projetada para lhe dar superioridade sobre motores de busca especializados como Google, Bing ou Perplexity. Além disso, os representantes da OpenAI mencionaram “busca de informações na Web em tempo real” e “cooperação direta com agências de notícias e outros provedores de dados”, ou seja, um mecanismo de busca especialmente projetado está realmente integrado ao ChatGPT e não redireciona as solicitações dos usuários a qualquer mecanismo de busca externo (embora o Bing, de propriedade da Microsoft, com a qual a OpenAI tem laços extremamente estreitos, seja chamado de “ferramenta importante” para organizar a busca, mas não a única ou mesmo a principal).
Esta máquina, como sabemos agora, é baseada em uma versão especialmente treinada do GPT-4o e usa ativamente fontes de dados de terceiros – incluindo as já mencionadas agências de notícias, como The Associated Press, Reuters, Axel Springer, Condé Nast, Hearst , Dotdash Meredith, Financial Times, News Corp., Le Monde, The Atlantic, Time e Vox Media. O chefe do desenvolvedor do ChatGPT, Sam Altman, respondendo a perguntas de usuários do Reddit sobre os novos recursos do bot, disse que “sonha com um futuro em que uma consulta de pesquisa possa gerar dinamicamente uma página da web personalizada com a resposta desejada”. Todos os pré-requisitos para realizar seu sonho existem: pelo menos os próprios internautas estão prontos para isso. Apenas em novembro, de acordo com estimativas fornecidas pela Similarweb e Statscounter, as audiências do navegador Chrome e do bot inteligente ChatGPT eram quase iguais: 3,45 bilhões de usuários ativos mensais para o primeiro, 3,7 bilhões de visitantes regulares para o segundo.
⇡#Alguns alucinam e outros fazem
A inteligência artificial não se resume apenas à inteligência generativa, que explodiu com uma explosão ensurdecedora graças ao ChatGPT há quase exatos dois anos – e isso foi mais uma vez lembrado por Tony Fadell, um dos principais designers do iPod, fundador do Nest Labs (o mesmo que trouxe termostatos “inteligentes” ao mercado americano em 2011) e um investidor ativo em projetos de alta tecnologia: “Estou envolvido com IA há quinze anos, gente, na verdade. Eu não sou Sam Altman, ok?” Os grandes modelos de linguagem (LLMs), que fundamentam quase todos os projetos de IA mais importantes da atualidade, têm todo o direito de existir, mas, enfatizou Fadell, apenas até certo ponto, o que tanto os desenvolvedores quanto os usuários precisam lembrar constantemente: “LLMs são tentando abraçar a imensidão – porque, você sabe, nós realmente queremos tornar a ficção científica realidade… BYAM – sabe-tudo, e eu não suporto sabe-tudo.”
Além de criticar o fascínio geral por bots do tipo ChatGPT, bem como por seus desenvolvedores – às vezes ingênuos, às vezes sinceramente excessivamente entusiasmados, e às vezes apenas cortando cupons com prudência devido ao hype desenfreado – o “pai do iPod” propôs um programa positivo para se livrar das deficiências do BYM e, em primeiro lugar, abandonar as alucinações que são inevitáveis simplesmente pela sua própria natureza. Fadell defende apaixonadamente os agentes de IA – modelos de redes neurais com capacidades deliberadamente limitadas, treinados em conjuntos de dados específicos para cada tarefa individual e funcionalmente mais explicáveis (compreensíveis analiticamente) do que redes profundas com múltiplas camadas de convoluções, transformadores integrados e outras máquinas digitais. O que, sem dúvida, de alguma forma funciona – os resultados são óbvios e muitas vezes muito valiosos – mas é impossível entender exatamente como cada resultado bem ou mal sucedido é obtido em todos os detalhes. “Se eu contratar um agente de IA para me treinar, ou atuar como copiloto para mim, ou mesmo me substituir no local de trabalho, eu absolutamente quero saber o que é isso.” Caso contrário, continua Fadell, as empresas de IA estão colocando suas reputações inteiramente em “tecnologia de merda” (foi o que ele disse – “alguma tecnologia bull$#!7”) – e nem sequer são capazes de imaginar quão sérios problemas isso lhes causará. o futuro ameaça.
⇡#Bolsas de couro – com coisas para sair!
No início de Novembro, o pessoal técnico do New York Times entrou em greve com exigências bastante razoáveis (pelo menos para o olhar casual), que incluíam um aumento salarial de apenas 2,5% e um limite máximo (agora, aliás, já em vigor – os grevistas queriam que se tornasse permanente) a duração da presença obrigatória no escritório é de dois dias úteis por semana, no máximo. Os negócios continuam como sempre para os Estados Unidos: os sindicatos do país são tradicionalmente fortes e têm estado particularmente activos nos últimos dois anos – tendo como pano de fundo um claro avanço da IA numa variedade de áreas de emprego de colarinho branco . No entanto, desta vez os empregadores receberam um reforço inesperado: o chefe do mecanismo de busca de IA Perplexity, Aravind Srinivas, ofereceu os serviços de seus bots inteligentes para substituir os especialistas em TI que entraram em greve. A situação foi ainda agravada pelo facto de ter sido anunciada uma greve poucos dias antes das eleições presidenciais – só podemos solidarizar-nos com os proprietários e a direcção da publicação noticiosa, cuja actividade inteira ficou comprometida num momento tão inoportuno. E isto apesar do facto de, ainda em Outubro, os advogados do New York Times terem enviado uma carta oficial à Perplexity com uma proposta para parar, na sua opinião, actividades ilegais de utilização de materiais da publicação para treinar a sua IA. Parece que a solidariedade de classe é claramente mais forte do que um conflito passageiro de interesses empresariais!
Mas os desenvolvedores da divisão de games do serviço de streaming Netflix nem tiveram tempo de entrar em greve: após a demissão de 35 funcionários do estúdio literalmente cult que deu ao mundo os universos Halo e God of War, a direção da empresa anunciou a sua intenção de desenvolver ainda mais esta área utilizando inteligência artificial. O ex-chefe de jogos da Netflix, Mike Verdu, que agora detém o título de vice-presidente da GenAI para jogos, chamou a situação atual nesta área de “o único ponto de inflexão na vida de uma geração inteira”. São os modelos generativos, como espera o gestor de topo, que irão acelerar a criação e implementação de uma “nova experiência de jogo” em produtos acabados – que os jogadores irão desejar.
O onipresente Elon Musk, cuja startup xAI está prestes a “lançar um estúdio de jogos de IA para tornar os jogos excelentes novamente”, concorda com esse ponto de vista. Quem, pergunta-se, trabalhará neste estúdio – pessoas ou bots? De acordo com um relatório da CompTIA publicado em novembro, o número de empregos abertos para desenvolvedores de software nos Estados Unidos caiu 56% em relação aos níveis de 2019, e são necessários 67% menos juniores sem experiência do que cinco anos antes. E esta, aliás, é a tendência mais assustadora para os especialistas: ao pouparem na contratação de programadores pouco qualificados (que a IA pode substituir de forma brilhante), os empregadores estão a quebrar a ligação entre gerações. Os “juniores” que não são aceitos no quadro de funcionários não crescerão, adotando a experiência dos “médios”, e em poucos anos poderá surgir uma situação extremamente desagradável – quando não houver bolsas de couro suficientes para resolver problemas mesmo moderadamente complexos (simplesmente restarão poucos deles, com as competências necessárias), nem IA. A menos, claro, que ele faça um avanço qualitativo num futuro próximo – algo em que, é preciso dizer, visionários como Altman ainda acreditam firmemente.
⇡#Bot para ajudar
Contudo, os modelos generativos – como qualquer ferramenta inventada pela humanidade – podem trazer tanto danos como benefícios; tudo depende de como usá-los. Em novembro, os clientes do Amazon Prime Video, por exemplo, tiveram a oportunidade não de assistir sozinhos séries tediosamente longas, pelas quais pagam pelo acesso, mas de usar a ferramenta inteligente X-Ray Recaps (que ainda é, no entanto, capaz de versão beta e atualmente funciona apenas com produtos Amazon MGM Studios Original). E não apenas vídeos: o novo produto permite obter um breve resumo do conteúdo de temporadas inteiras de seriados, ou cenas individuais dentro de um episódio – conforme o desejo do espectador (embora a aplicabilidade deste termo ao usuário do X-Ray Recaps é bastante duvidoso). A ferramenta depende não apenas da trilha de áudio, mas também da sequência de vídeo e legendas, se disponíveis – em uma palavra, atua como um modelo de IA multimodal completamente moderno. Além disso, “proteções” são prudentemente incorporadas à nova funcionalidade – para não estragar os pontos-chave para um usuário excessivamente curioso, mas ao mesmo tempo fornecer-lhe um resumo bastante informativo e claro do enredo.
Mas na Escola Físico-Técnica de Matemática Aplicada e Informática do Instituto de Física e Tecnologia de Moscou (MIPT), eles resolveram quase o problema oposto – criaram um assistente BYM para gerar roteiros de longas-metragens e séries de TV. Acontece que em um futuro não muito distante uma pessoa nesta área não será mais necessária: um modelo escreverá um roteiro, outro gravará um vídeo baseado nele, um terceiro escreverá um currículo – é assim muito tempo e dinheiro que você pode economizar! E não só na produção de séries de TV, mas também na indústria musical: os Beatles (alguém se lembra de um grupo assim que se separou há mais de meio século?) apenas em novembro de 2024 foram indicados ao Grammy – com a composição “De vez em quando”. Até muito recentemente, a sua gravação demo era considerada inadequada para pós-processamento, mas agora entrou em ação – com a ajuda de um modelo generativo treinado nas músicas do grupo.
Os funcionários da Northwell Health, a maior rede médica do estado de Nova York com 85 mil funcionários, também usam destemidamente a IA em seu trabalho. pessoal: não só para tradução (quando um paciente que fala espanhol consulta um médico que fala inglês, por exemplo) e para simplificar o trabalho com uma série de prontuários, mas também para consultas durante o diagnóstico. É verdade que isso não é feito de forma totalmente pública: a 404 Media obteve uma apresentação e gravações de bate-papos internos de funcionários da Northwell Health – com base em seu estudo, ficou claro o quão ativamente eles usam IA chamada AI Hub nesta organização. Além de ajudar na redação de textos, na classificação de perfis de candidatos para vagas abertas e na resolução de diversas questões administrativas, o AI Hub é recomendado para ser usado em tarefas “clínicas ou quase clínicas” – por exemplo, para detectar câncer de pâncreas (para ser justo, nós observe que o diagnóstico de câncer usando modelos generativos já existe há muito tempo e não é mais novidade).
Especialistas sugerem que o fato de uma instituição médica ocultar o uso ativo de IA pode estar associado a preocupações com litígios – afinal, o assunto diz respeito aos dados pessoais dos pacientes e a uma potencial ameaça à sua saúde. Mas a própria intenção da Northwell Health de utilizar mais ativamente a inteligência artificial no setor da saúde está em linha com as tendências atuais. Afinal, os desenvolvedores do laboratório de biotecnologia Neiry, juntamente com cientistas da Universidade Estadual de Moscou, treinaram o rato mais comum (Rattus norvegicus), cujo cérebro está conectado por meio de uma interface neural a um modelo generativo executado em um computador, para usar “dicas de AI” para dar respostas corretas a uma variedade de perguntas, não excluindo as médicas. Por que os médicos da espécie Homo sapiens são piores?
⇡#Para pensar como código, você tem que ser código
A programação, nos seus muitos aspectos, é uma das indústrias para a qual se espera que a IA generativa seja mais adequada: envolve a geração de texto que pode ser percebido e interpretado por outra máquina menos inteligente. E, como mostra a prática, tal raciocínio não é desprovido de lógica: pelo menos, os especialistas do ZeroPath usaram com sucesso o modelo generativo que treinaram para detectar vulnerabilidades de dia zero (incluindo execução remota de código, desvio de sistemas de autenticação, bem como referências diretas inseguras a objetos) em geral, uma série de aplicativos populares – tanto de código aberto quanto distribuídos sob as marcas Netflix, Salesforce, Hulu, etc.
Sim, essas vulnerabilidades são bastante simples, mas detectá-las em megabytes de código é um processo extremamente trabalhoso se executado por uma pessoa. Os scanners algorítmicos automáticos, conhecidos muito antes do uso generalizado de modelos generativos, muitas vezes não detectam vulnerabilidades que diferem dos padrões padrão, para deleite dos invasores. A IA pode automatizar a detecção pelo menos destas falhas de segurança triviais, libertando tempo e energia dos especialistas biológicos para enfrentar desafios mais sérios. Aliás, o Google também acompanha a tendência indicada pelo ZeroPath: seu agente especializado BNM Big Sleep (baseado no Gemini 1.5 Pro), fruto da cooperação entre as divisões Project Zero e DeepMind, identificou prontamente em novembro uma vulnerabilidade de buffer overflow na próxima versão de pré-lançamento do extremamente popular (especialmente para projetos online) SQLite DBMS.
No entanto, as próprias implementações de IA (diga-se o que se diga, permanecem essencialmente programas executados em máquinas von Neumann) não estão isentas de vulnerabilidades. Graças à equipe Protect AI, que lançou o primeiro programa de recompensa de bugs do mundo para detectar vulnerabilidades em sistemas de inteligência artificial e aprendizado de máquina, hunter, em vários modelos generativos (por razões óbvias, principalmente de código aberto e executados localmente – são mais fáceis de identificar bugs ) Já foram descobertas 34 lacunas bastante graves. Eles permitem que os invasores executem uma variedade de ações, desde ataques DoS direcionados até a execução de código arbitrário no computador da vítima. Presumivelmente, o próximo estágio será a detecção de vulnerabilidades na IA usando IA – e então, vejam só, a implementação prática da reflexão da máquina não está longe!
⇡#Não, IA, você não entende
Um truísmo que há muito é óbvio para os especialistas – que a IA generativa (e não apenas ela, mas todos os desenvolvimentos atuais no campo da aprendizagem automática) não compreende a informação que processa – foi mais uma vez confirmada por investigadores do Massachusetts Institute of Tecnologia (MIT). Sim, modelos complexos às vezes produzem respostas muito plausíveis, mas por algum motivo ninguém se surpreende com a capacidade de uma planilha de ordenar os dados em uma determinada coluna em ordem alfabética, certo? Essencialmente, a IA faz a mesma coisa, só que em um nível mais complexo e com um grande número de parâmetros ao mesmo tempo: ela primeiro, durante o processo de aprendizagem, associa uma certa informação primitiva (que para uma pessoa é uma palavra completamente significativa, nome/título ou expressão estável, e por trás dele há muitas memórias e associações pessoais, mas para uma máquina é apenas um token digital, nada mais) um vetor multidimensional no espaço condicional de seus parâmetros operacionais, e então produz bastante muito em tais quantidades operações de multiplicação de matrizes simples em essência, mas extremamente trabalhosas em termos computacionais.
Recentemente, o sucesso de modelos com transformadores – que são redes neurais auxiliares especiais que expandem a capacidade da IA generativa de perceber longas séries de informações – começou a levar vários comentaristas à suposição de que o GPT-4 (especialmente no “o “versão) e uma série de sistemas de complexidade comparável ainda podem reivindicar alguma compreensão, embora não verdadeiramente humana, da informação passada através deles. Eles se propuseram a testar essa hipótese no MIT, oferecendo ao modelo generativo duas tarefas práticas: dirigir um carro condicional pelas ruas de Nova York de um ponto a outro – e jogar Othello, que está longe de ser o jogo mais complexo com um conjunto compacto de regras claras. Na verdade, o objetivo do experimento foi verificar se o sistema é capaz de compreender as regras que lhe são propostas, restaurando segundo elas a lógica de funcionamento de outros sistemas, ainda que semelhantes – ou se, mesmo com transformadores, nada mais é do que do que um classificador do Excel, organizando apenas um enorme banco de dados de uma só vez, de acordo com muitos parâmetros ambíguos.
Infelizmente (embora para alguns provavelmente ainda seja um viva), foi a segunda suposição que se revelou verdadeira. Sim, uma vez que os transformadores são treinados para formar conexões entre blocos de informação que estão distantes uns dos outros (e, portanto, em particular, modelos para desenho de IA com transformadores percebem melhor pistas longas e ornamentadas), algum tipo de imagem dessas conexões em sua “consciência ” – na forma de pesos nas entradas de seus perceptrons – é reproduzido. Mas só corresponde à realidade enquanto for necessário que o sistema reproduza algo que seja geralmente adequado ao conjunto exato de dados sobre os quais foi treinado. Os pesquisadores dão este exemplo: em um mapa completo de Nova York (com seu traçado estritamente retangular: “as avenidas vão do norte ao sul, as ruas vão do oeste ao leste”, como escreveu o poeta), a IA fiz um excelente trabalho traçando uma rota para um carro do ponto A ao ponto B, porque estudei uma grande variedade de rotas construídas por motoristas reais. Mas assim que os experimentadores bloquearam condicionalmente apenas cerca de 1% das passagens, a correspondência da rota traçada com a realidade caiu imediatamente de quase 100% para 67%.
Por outras palavras, o sistema digital não compreendia as regras mais simples aos olhos humanos – como “contornar uma área bloqueada, avançar mais um quarteirão, virar ali e depois fazer uma inversão de marcha e regressar à rota anterior”. E os modelos de “raciocínio” amplamente divulgados hoje – eles, infelizmente, apenas imitam a lógica do raciocínio sem entendê-la como tal: ainda não têm nada para entender. Transformers é uma boa aposta para o sucesso, mas é necessário algo fundamentalmente diferente para, se não convencer os investigadores de que a IA tem inteligência genuína, pelo menos fazê-los duvidar fortemente da indiscutibilidade da sua ausência. Há muito o que trabalhar aqui!
⇡#Nada humano
Embora alguns escritores prevejam incansavelmente o colapso iminente da economia, que supostamente não pode suportar a substituição de dezenas e centenas de milhões de atuais trabalhadores de “colarinho branco” por bots inteligentes, os próprios criadores desses bots claramente não têm pressa em confiar neles. os mais responsáveis, perfeitamente mensuráveis em termos de eficiência e extremamente importantes para o seu negócio no trabalho geral. Ou seja, a venda desses próprios bots. Como a Bloomberg informou em novembro, a Salesforce, desenvolvedora do extremamente popular sistema de CRM em nuvem (que está no mesmo nível da Oracle, SAP, Google e Microsoft neste segmento do mercado de TI, embora esteja muito atrás deles em termos de capitalização condicional ), planeja contratar mil funcionários, além dos mais de 72 mil que já integram seu quadro de funcionários – especificamente para vender seus agentes generativos de IA. Esses modelos pequenos (em comparação com generalistas como o GPT-4o) concentram-se na execução de uma gama limitada de tarefas sem intervenção humana – e, via de regra, fazem isso melhor (ao comparar a frequência das alucinações) do que o conhecido BNM.
E essas vendas já estão indo bastante rapidamente – basta dizer que o agente Agentforce AI (com acesso, como todos os outros produtos Salesforce, através da nuvem) custa aos clientes a partir de US$ 2 por apenas uma sessão de interação com ele. No entanto, a administração da empresa aparentemente sentiu que treinar um agente especializado em IA para vender outros agentes para bolsas de couro seria mais caro (e/ou não comparável em eficácia) do que contratar mil das mesmas bolsas para vender seu produto de última geração. E, a propósito, simplesmente fornecer a oportunidade de ativar tal produto em hardware adequado, sem se preocupar particularmente com quem, em quais situações e por que motivo desejará usar tal serviço, claramente não é uma opção no caso do Agentforce. . Marc Benioff, executivo sênior e cofundador da Salesforce, criticou repetidamente a Microsoft, em particular pela lentidão na organização de vendas de seus próprios agentes, sem meias palavras: “Basta ver como as informações sobre o Copilot são comunicadas aos clientes”. decepção completa! E, de fato, como você pode imaginar um bot de IA conduzindo negociações eficazes com um cliente potencial em um restaurante – ou pelo menos em uma casa de banhos? Assim, até que as decisões sobre compras deste tipo sejam confiadas a modelos generativos, os vendedores reais claramente não têm nada com que se preocupar.
⇡#Até o bloco de notas, Karl!
Embora os recursos de IA do Microsoft Office pareçam ser disponibilizados gratuitamente aos usuários (pelo menos por enquanto, em um número limitado de países), acessar o assistente generativo no bom e velho Bloco de Notas quase certamente custará dinheiro. É isso mesmo, não é um erro de digitação: o blog de novembro da própria empresa desenvolvedora confirma que tanto o Notepad quanto o Paint – duas das ferramentas criativas interativas mais simples e acessíveis incluídas neste sistema operacional – em breve serão enriquecidos com funcionalidades de IA. Para um editor gráfico básico, este será o “preenchimento inteligente” (preenchimento generativo), graças ao qual, por exemplo, em muitos dos irritantes prados verdes montanhosos dos papéis de parede padrão do Windows XP, você pode selecionar um retângulo, escrever “castelo medieval ”no campo de entrada de dicas – e chegar lá é um lindo castelo com torres, organicamente integrado à paisagem. O oposto desta ferramenta também aparecerá – uma “borracha inteligente” (apagamento generativo), que remove um objeto desnecessário da imagem e desenha uma seção plausível do fundo em seu lugar.
«O bloco de notas, na próxima versão 11.2410.17.0, poderá, usando IA generativa, parafrasear e editar o texto inserido (função Rewrite) – encurtá-lo ou alongá-lo, alterar o tom e o formato da apresentação. Esta opção estará disponível na versão prévia apenas para usuários nos EUA, França, Reino Unido, Canadá, Itália e Alemanha – e somente se eles estiverem logados com uma conta da Microsoft. Neste contexto, a mensagem sobre o novo recurso do assistente Claude AI da Anthropic está de alguma forma até perdida – ele agora é capaz de “imitar o estilo único do usuário”, auxiliando-o na criação de textos. Ele não seria capaz disso, mesmo que o Bloco de Notas fizesse isso!
⇡#Tirando Sora da cabana
A OpenAI tem trabalhado em modo semifechado por tanto tempo em seu gerador de vídeo baseado em Sora que está se tornando insuportável até mesmo para os participantes dos testes de bastidores do novo modelo esperar por quaisquer resultados tangíveis. No final de novembro, uma API apareceu no site Hugging Face para conectar-se à versão do Sora rodando em servidores OpenAI – e, de acordo com alguns relatos, os próprios participantes deste teste limitado vazaram a capacidade de acesso usando tokens de autenticação alocados para eles pelo desenvolvedor. Seja como for, por um curto período de tempo – até que a própria empresa recobrasse o juízo – literalmente todos que tinham essas informações puderam se conectar via API a um gerador de vídeo inteligente e receber um vídeo de dez segundos com resolução de até para 1080p totalmente gratuito usando um pequeno prompt de texto. Os organizadores do vazamento acompanharam suas ações com um breve manifesto no qual manifestaram discordância com a “duplicidade” da OpenAI – que supostamente está, por um lado, comprometida em preservar os direitos dos criadores de conteúdo de vídeo e se preocupa com a legalidade da coleta dados para treinar seu modelo e, por outro lado, está simplesmente engajado na “lavagem de arte”, quando, sob o pretexto de permissões recebidas de vários criadores para usar seu conteúdo, um muito mais extenso uma base que permite alcançar os melhores resultados com os menores custos financeiros e organizacionais.
O diretor de produtos da OpenAI, Kevin Weil, disse que a entrada verdadeiramente atrasada de Sora no mercado se deve à “necessidade de levar o modelo à perfeição, configurar adequadamente sua segurança e capacidade de imitar rostos reais [aqui estamos falando claramente sobre a introdução de grades de proteção contra a criação de celebridades deepfakes], e também ajustar o dimensionamento para o uso mais amplo possível.” O último argumento não é uma desculpa vazia: aquela versão do modelo de vídeo generativo, que foi exibida numa das suas fases iniciais em Fevereiro deste ano, gastou mais de 10 minutos a criar um vídeo de 1 minuto – e não foi altamente autoconsistente (grosso modo, o traje O cachorro rolando em um skate no quadro pode facilmente mudar várias vezes em um minuto de tela – e é bom, mesmo que apenas a cor e não a raça). Agora, aparentemente, através da API publicada, os entusiastas tiveram brevemente acesso a um desenvolvimento posterior, nomeadamente a edição turbo de alta velocidade do Sora – e, presumivelmente, o desenvolvimento do modelo principal também continua nas profundezas do OpenAI. É a entrada deste último no mercado que os estúdios de vídeo independentes de baixo orçamento mais temem: se atingir o nível declarado de funcionalidade, será extremamente difícil para alguém fora de Hollywood competir com ele.
⇡#Peixe? Carne? Farinha de soja?
«A IA é ótima; ele ajuda”, dizem alguns. “Monstruoso! – exclamam outros – a IA estraga tudo o que você faz! Existem, no entanto, situações em que não é imediatamente claro se a aplicação de modelos generativos numa determinada área é mais boa ou má, e parece que tais incertezas estão a surgir cada vez com mais frequência. Aqui estão, por exemplo, os resultados de um estudo realizado por uma plataforma que ajuda quem procura emprego, Resume Genius: entre 1 mil candidatos a emprego nos Estados Unidos, 69% duvidam da capacidade da IA para melhorar sua produtividade no local de trabalho. Apenas 34% temem que um bot inteligente ou outra implementação de um modelo generativo moderno assuma completamente as suas responsabilidades profissionais, e apenas 30% temem o impacto negativo da IA nos níveis de concorrência e nos salários nas suas áreas de atividade. É interessante que o quadro revelado é praticamente independente da idade dos entrevistados: não só os “boomers” que terminam a carreira, mas também os representantes da “Geração Z” em geral não consideram a inteligência artificial como um perigo real para o seu emprego. Não só isso: um estudo da Upwork realizado no verão mostrou que 77% dos funcionários que foram forçados pelos seus chefes a usar ferramentas de IA no trabalho notaram que a sua produtividade diminuiu como resultado. Tudo parece de alguma forma ambivalente.
⇡#Ferro!
Para que a IA se torne mais inteligente, precisamos construir data centers mais poderosos e preenchê-los com ainda mais aceleradores gráficos mais avançados, certo? Até muito recentemente, este parece ter sido o pensamento de uma proporção significativa de decisores na indústria das TI, até ao final de Novembro deste ano, sinais de abrandamento do elevado ritmo de desenvolvimento da IA que começou há alguns anos. atrás começou a aparecer de forma especialmente perceptível. O extenso crescimento nas capacidades dos modelos generativos, diretamente proporcional ao número de adaptadores Nvidia em racks de servidores, está terminando, conforme afirma o Financial Times. O artigo está repleto de preocupações sinceras sobre as perspectivas deste setor (até recentemente extremamente restrito) do mercado de TI, no qual de repente surgiram alguns investimentos completamente inimagináveis - com a clara esperança dos investidores de lucros ainda mais alucinantes. Mas essas perspectivas são vagas: não é à toa que Ilya Sutskever, um dos cofundadores da OpenAI, chamou diretamente a última década de 2010 de era da escala – enquanto agora, em sua opinião, o tempo de “descoberta e espanto” é vindo novamente para o setor de IA.
Espanto, em particular, pelo fato de que os dados acumulados pela humanidade para treinar modelos ainda maiores são francamente insuficientes, que modelos geradores verdadeiramente “raciocinadores” não apareceram, e a indústria global de fabricação de chips não é de forma alguma capaz de satisfazer as necessidades dos clientes para sempre novos aceleradores de servidor. O Wall Street Journal cita as palavras do CEO da Nvidia, Jensen Huang, que descreveu de forma colorida a escala do desastre de hardware (mais precisamente, para alguns, um desastre, mas sua empresa se sente muito bem com isso): se o maior nó de computação para IA da atualidade, tal Como o Colossus construído por Musk the Restless requer centenas de milhares de chips Nvidia Hopper, então para treinar os modelos da próxima geração você também precisará de cerca de 100 mil aceleradores, só esta arquitetura Blackwell. “Isso dá uma ideia aproximada de para onde a indústria está indo”, observou modestamente o chefe da empresa, cuja receita trimestral ao longo dos dois anos do boom da IA cresceu de US$ 7 bilhões para US$ 35 bilhões e, presumivelmente, é. não começará a diminuir muito em breve, apesar de todas as incertezas associadas à indústria de IA.
________________
* Incluído na lista de associações públicas e organizações religiosas em relação às quais o tribunal decidiu liquidar ou proibir atividades que tenham entrado em vigor pelos motivos previstos na Lei Federal de 25 de julho de 2002 nº 114-FZ “ Sobre o Combate às Atividades Extremistas”