Já rotineiro: NVIDIA novamente melhorou resultados no benchmark MLPerf Training AI

As plataformas de computação NVIDIA demonstraram novamente alto desempenho, desta vez nos últimos testes MLPerf Training v4.0. Assim, o supercomputador NVIDIA EOS-DFW mais que triplicou seu desempenho no teste LLM baseado no GPT-3 175B em comparação ao resultado do ano passado.

Alegadamente, 11.616 aceleradores NVIDIA H100, combinados com a interconexão NVIDIA Quantum-2 InfiniBand de 400G, permitiram que o supercomputador EOS alcançasse um resultado tão significativo graças a uma abordagem maior e mais abrangente ao design do sistema. Isso possibilita treinar e operar modelos grandes com mais eficiência, economizando tempo e recursos, afirma a empresa. E o acelerador H200 mais moderno com um subsistema de memória aprimorado no MLPerf Training é 14% mais rápido que o H100, e nos testes GNN (RGAT) os nós com H200 revelaram-se mais rápidos que os nós com H100 em 47%.

Fonte da imagem: NVIDIA

De acordo com a empresa, os provedores de serviços LLM podem gerar US$ 7 em apenas quatro anos com um investimento de US$ 1 usando o modelo Llama 3 70B em servidores baseados em NVIDIA HGX H200, assumindo US$ 0,60 por milhão de manutenção e rendimento de token. A capacidade do HGX H200 é de 24 mil tokens por segundo.

O crescimento da produtividade também foi facilitado por melhorias e otimizações de software. Assim, um cluster de 512 chips H100 tornou-se 27% mais rápido ao longo de um ano, e o crescimento do desempenho com o aumento do número de aceleradores agora é mais linear. No novo teste de treinamento MLPerf para ajuste LLM (LoRA aplicado ao Meta✴ Llama 2 70B), os sistemas NVIDIA mostraram escalonamento eficaz com o número de aceleradores de 8 a 1024. A NVIDIA também aumentou o desempenho de treinamento do Stable Diffusion v2 em quase 80% em as mesmas escalas de sistema apresentadas em testes anteriores.

A NVIDIA observou que para empresas que executam aplicativos baseados em LLM, o alto desempenho é de grande importância. A capacidade de treinar e ajustar modelos mais poderosos — e colocá-los em funcionamento mais rapidamente — levará a melhores resultados e maiores receitas. E com o lançamento da plataforma NVIDIA Blackwell, em breve será possível treinar e inferir modelos generativos de IA com um trilhão de parâmetros.

avalanche

Postagens recentes

As autoridades dos EUA pretendem reduzir o montante dos subsídios concedidos à Intel para a construção de empresas

A empresa taiwanesa TSMC foi uma das primeiras fabricantes de chips a construir fábricas nos…

59 minutos atrás

Entre os potenciais investidores da Altera apareceu uma empresa que está disposta a comprá-la integralmente

Os representantes da Intel já notaram que não vão vender totalmente a subsidiária Altera, mas…

1 hora atrás

Intel pensa em vender terrenos nos EUA para economizar dinheiro

A Intel Corporation está atualmente reestruturando seus ativos e tentando encontrar novos proprietários para alguns…

3 horas atrás

O robô humanóide Figure AI aprendeu a executar tarefas 4 vezes mais rápido e 7 vezes mais preciso

No início deste ano, a Figura AI apresentou seu robô humanóide de segunda geração, a…

4 horas atrás

Um concorrente da SpaceX aparecerá na Europa para entregar carga à ISS

A empresa europeia The Exploration Company poderá no futuro tornar-se concorrente da americana SpaceX no…

9 horas atrás