A OpenAI está atrasada no desenvolvimento da versão mais recente de seu principal modelo de inteligência artificial, que será chamado de GPT-5, mas por enquanto tem o codinome Orion. A empresa faz isso há 18 meses, tentando alcançar o resultado desejado, mas sem sucesso – não há dados suficientes em todo o mundo para tornar o modelo inteligente o suficiente, escreve o Wall Street Journal.
A OpenAI conduziu pelo menos dois grandes treinamentos, cada um envolvendo vários meses de processamento de dados para completar o Orion. A cada vez, novos problemas surgiam e o sistema não produzia os resultados esperados pelos pesquisadores. Na sua forma atual, o Orion tem um desempenho melhor do que os sistemas OpenAI existentes, mas, segundo os desenvolvedores, não avançou o suficiente para justificar o enorme custo de manter o novo modelo em condições de funcionamento. Uma sessão de treinamento de seis meses poderia custar aproximadamente US$ 500 milhões somente em custos computacionais.
Há dois anos, a OpenAI e seu CEO Sam Altman causaram impacto com o lançamento do ChatGPT. Então parecia que a IA iria penetrar em todos os aspectos da vida humana moderna e melhorá-la significativamente. Os analistas previram que os gastos dos gigantes da tecnologia com IA chegarão a US$ 1 trilhão nos próximos anos. A maior responsabilidade recai sobre a OpenAI, que deu origem ao boom da IA.
A rodada de financiamento da empresa em outubro foi avaliada em US$ 157 bilhões, até porque Altman prometeu um “salto significativo” em todas as áreas e desafios com o GPT-5. Espera-se que o modelo faça descobertas científicas e execute facilmente tarefas humanas cotidianas, como marcar consultas e reservar passagens aéreas. Os investigadores também esperam que ela aprenda a duvidar da sua própria razão e se torne menos propensa a “alucinar” – ela deixará de dar respostas confiantes que não são verdadeiras.
Se assumirmos que o GPT-4 opera no nível de um estudante inteligente do ensino médio, espera-se que o GPT-5 tenha um desempenho no nível de um doutor em ciências em determinadas tarefas. Não existem critérios claros para determinar se um modelo de nova geração é digno de ser chamado de GPT-5: os sistemas são testados em tarefas de matemática e programação, mas os pesquisadores dão o veredicto final em um nível intuitivo, e isso ainda não aconteceu. Dizem que o desenvolvimento de grandes modelos de linguagem não é apenas uma ciência, mas também uma arte.
Os modelos são testados durante execuções de treinamento – longos períodos durante os quais são enviados trilhões de tokens, ou seja, fragmentos de palavras. Um grande lançamento de treinamento pode exigir meses de data centers e dezenas de milhares de aceleradores Nvidia AI. O treinamento do GPT-4, segundo Altman, custou US$ 100 milhões; espera-se que o treinamento de modelos futuros custe mais de US$ 1 bilhão. Um lançamento de treinamento fracassado é algo semelhante a um teste de foguete fracassado. Os pesquisadores estão tentando reduzir a probabilidade de tais falhas conduzindo experimentos em menor escala – testes antes dos em grande escala.
Em meados de 2023, a OpenAI realizou um treinamento experimental, que se tornou um teste para a provável arquitetura Orion – o experimento não trouxe muitos resultados: ficou claro que um treinamento em grande escala levaria muito tempo e seria muito caro. Os resultados do projeto Arrakis mostraram que a criação do GPT-5 não ocorrerá tão bem quanto os pesquisadores esperavam. Eles começaram a fazer algumas mudanças técnicas para fortalecer o Orion e concluíram que seria necessária uma grande quantidade de dados variados e de alta qualidade e que as informações da Internet pública poderiam não ser suficientes.
Os modelos de IA tendem a ficar mais inteligentes à medida que consomem grandes quantidades de dados – geralmente livros, publicações acadêmicas e outras fontes confiáveis – que ajudam a IA a se expressar com mais clareza e a lidar com uma ampla gama de tarefas. Ao treinar modelos anteriores, a OpenAI não negligenciou outras fontes, como artigos de notícias e até postagens em mídias sociais. Mas para tornar o Orion mais inteligente, são necessárias fontes de dados adicionais, e elas não são suficientes. Então a empresa decidiu criar ela mesma esses dados: contratou pessoas para escrever códigos e resolver problemas matemáticos que fornecessem explicações passo a passo de suas ações. A OpenAI trouxe físicos teóricos para apresentar explicações sobre como eles abordariam a solução dos problemas mais difíceis em sua área.
O processo é extremamente lento. O GPT-4 foi treinado em 13 trilhões de tokens – para efeito de comparação, mil pessoas escrevendo cinco mil caracteres por dia gerariam um bilhão de tokens em poucos meses. Assim, a OpenAI começou a desenvolver dados sintéticos – fazendo com que outros sistemas de IA gerassem dados para treinar nova IA. Mas a pesquisa mostrou que os ciclos de feedback entre a geração de dados de IA e a IA correm o risco de falhas ou respostas absurdas. Para eliminar este problema, a geração de dados foi confiada a outro modelo – o1.
No início de 2024, a gestão da OpenAI começou a perceber que os prazos estavam se esgotando. O GPT-4 tem um ano, os concorrentes começaram a alcançá-lo e o novo modelo Antrópico, segundo algumas estimativas, já o superou. O projeto Orion estagnou e a OpenAI teve que mudar para outros projetos e aplicativos: uma versão leve do GPT-4 e um gerador de vídeo Sora foram lançados. Como resultado, surgiu a concorrência interna – os desenvolvedores do Orion e de outros produtos competiram por recursos computacionais limitados.
A concorrência entre os criadores de IA tornou-se tão acirrada que as grandes empresas tecnológicas publicam menos artigos sobre as últimas descobertas ou avanços do que é habitual na comunidade científica. O dinheiro inundou o mercado e as empresas começaram a ver os resultados das pesquisas como segredos comerciais que deveriam ser protegidos. Chegou ao ponto em que os pesquisadores pararam de trabalhar em aviões, cafeterias e outros locais públicos onde alguém pudesse estar olhando por cima do ombro.
No início de 2024, a OpenAI preparou-se para outra tentativa de lançamento do Orion, munida de um conjunto de dados melhor. Durante os primeiros meses do ano, os pesquisadores realizaram vários pequenos treinamentos para saber onde trabalhar em seguida. Em maio, eles decidiram que estavam prontos para realizar um lançamento em grande escala do Orion, que estava programado para durar até novembro. Mas logo no início surgiu um problema com os dados: eram menos diversificados do que o esperado, limitando a qualidade potencial da formação em IA. O problema não apareceu nos projetos de teste e só se tornou aparente após o início do grande lançamento – mas a essa altura a OpenAI já havia gasto muito tempo e dinheiro para recomeçar. Os investigadores tentaram encontrar uma gama mais ampla de dados para alimentar o modelo durante o treino, mas ainda não está claro se esta estratégia se revelou frutífera.
As dificuldades com o Orion apontaram a OpenAI para uma nova abordagem para tornar os grandes modelos de linguagem mais inteligentes – o raciocínio. A capacidade de raciocínio ajuda a IA a resolver problemas complexos para os quais não foi treinada. É assim que funciona o modelo OpenAI o1 – ele gera diversas respostas para cada pergunta e as analisa em busca da melhor. Mas ainda não há certeza sobre isso: segundo pesquisadores da Apple, os modelos de “raciocínio” provavelmente apenas interpretam os dados recebidos durante o treinamento, mas não resolvem de fato novos problemas. Por exemplo, se você fizer pequenas alterações nas condições do problema original que não sejam relevantes para sua solução, a qualidade da resposta da IA cairá drasticamente.
Essa inteligência extra tem um custo: a OpenAI tem que pagar para gerar múltiplas respostas em vez de apenas uma. “Acontece que se um bot pensa por apenas 20 segundos em um jogo de pôquer, o custo aumenta da mesma forma que se o modelo crescesse 100.000 vezes e treinasse 100.000 vezes mais”, disse o cientista pesquisador da OpenAI, Noam Brown. Orion poderia se basear em um modelo mais avançado e eficiente, capaz de raciocinar. Os investigadores da empresa estão a seguir esta abordagem e esperam combiná-la com grandes quantidades de dados, alguns dos quais podem vir de outros modelos de IA criados pela OpenAI. Então os resultados de seu trabalho serão refinados no material criado por pessoas.