Os chineses treinaram um análogo do GPT-4 com apenas 2.000 chips e 33 vezes mais barato que OpenAI

Fonte da imagem: Copiloto

A conquista da 01.ai é especialmente notável dado o acesso limitado que as empresas chinesas têm às GPUs avançadas da Nvidia. O fundador e CEO da empresa, Kai-Fu Lee, destaca que, apesar das empresas chinesas praticamente não terem acesso às GPUs Nvidia devido às regulamentações dos EUA, o modelo de IA da Yi-Lightning ficou em sexto lugar nos modelos de classificação de desempenho de acordo com a versão LMSIS da Universidade da Califórnia em Berkeley.

Fonte da imagem: NVIDIA

«Meus amigos no Vale do Silício estão chocados não apenas com nosso desempenho, mas também com o fato de termos treinado um modelo por apenas US$ 3 milhões”, disse Kai-Fu Lee. “Há rumores de que aproximadamente US$ 1 bilhão já foi investido no treinamento do GPT-5.” Acrescentou ainda que devido às sanções dos EUA, as empresas na China são obrigadas a procurar soluções mais eficientes e económicas, que foi o que 01.ai conseguiu alcançar ao optimizar recursos e ideias de engenharia, ao mesmo tempo que obteve resultados semelhantes aos do GPT-4. a custos significativamente mais baixos.

Em vez de aumentar o poder computacional como os concorrentes estão fazendo, a empresa concentrou-se na otimização de algoritmos e na redução de gargalos de processamento. “Quando temos apenas 2.000 GPUs, temos que descobrir como usá-las [efetivamente]”, disse Lee.

Como resultado, os custos de produção do modelo foram de apenas 10 centavos por milhão de tokens, o que é aproximadamente 30 vezes menor que modelos semelhantes. “Transformamos o problema computacional em um problema de memória construindo um cache multinível, criando um mecanismo de inferência especial e assim por diante”, Li compartilhou os detalhes.

Apesar das afirmações sobre o baixo custo de treinamento do modelo Yi-Lightning, permanecem dúvidas sobre o tipo e o número de GPUs usadas. O chefe da 01.ai afirma que a empresa tem recursos suficientes para implementar seus planos por um ano e meio, mas um cálculo simples mostra que 2.000 GPUs Nvidia H100 modernas ao preço atual de US$ 30.000 por unidade custariam US$ 6 milhões, o que é o dobro dos custos declarados. Esta discrepância levanta questões e requer esclarecimentos adicionais. No entanto, a conquista da empresa já atraiu a atenção da comunidade mundial e mostrou que a inovação no campo da IA ​​pode nascer mesmo em condições de recursos computacionais limitados.

avalanche

Postagens recentes

Informante: Fable será lançado simultaneamente para PC, Xbox e PS5, e a versão de Forza Horizon 6 para PC “simplesmente não está pronta”.

O ambicioso RPG de ação e fantasia Fable (da série Forza Horizon), do estúdio britânico…

45 minutos atrás

O boom da IA ​​teve pouco impacto no PIB dos EUA até agora, mas a dívida massiva pode se tornar um problema.

Em um estudo recente, analistas do BIS tentaram explicar que, no estágio atual de desenvolvimento…

1 hora atrás

O número máximo de jogadores online simultâneos no Steam ultrapassou 42 milhões pela primeira vez na história.

Apenas uma semana após sua conquista anterior, o Steam, serviço de distribuição digital da empresa…

2 horas atrás

O Google introduziu um protocolo de pagamento universal (UCP, na sigla em inglês) para organizar compras por meio de chatbots.

Esta semana, o Google apresentou um novo padrão aberto, chamado Universal Commerce Protocol (UCP), projetado…

2 horas atrás

Os desenvolvedores chineses de IA admitem que é improvável que ultrapassem os EUA nos próximos anos.

Os representantes da indústria de IA da China mostram-se bastante cautelosos quanto às perspectivas de…

3 horas atrás