Já rotineiro: NVIDIA novamente melhorou resultados no benchmark MLPerf Training AI

As plataformas de computação NVIDIA demonstraram novamente alto desempenho, desta vez nos últimos testes MLPerf Training v4.0. Assim, o supercomputador NVIDIA EOS-DFW mais que triplicou seu desempenho no teste LLM baseado no GPT-3 175B em comparação ao resultado do ano passado.

Alegadamente, 11.616 aceleradores NVIDIA H100, combinados com a interconexão NVIDIA Quantum-2 InfiniBand de 400G, permitiram que o supercomputador EOS alcançasse um resultado tão significativo graças a uma abordagem maior e mais abrangente ao design do sistema. Isso possibilita treinar e operar modelos grandes com mais eficiência, economizando tempo e recursos, afirma a empresa. E o acelerador H200 mais moderno com um subsistema de memória aprimorado no MLPerf Training é 14% mais rápido que o H100, e nos testes GNN (RGAT) os nós com H200 revelaram-se mais rápidos que os nós com H100 em 47%.

Fonte da imagem: NVIDIA

De acordo com a empresa, os provedores de serviços LLM podem gerar US$ 7 em apenas quatro anos com um investimento de US$ 1 usando o modelo Llama 3 70B em servidores baseados em NVIDIA HGX H200, assumindo US$ 0,60 por milhão de manutenção e rendimento de token. A capacidade do HGX H200 é de 24 mil tokens por segundo.

O crescimento da produtividade também foi facilitado por melhorias e otimizações de software. Assim, um cluster de 512 chips H100 tornou-se 27% mais rápido ao longo de um ano, e o crescimento do desempenho com o aumento do número de aceleradores agora é mais linear. No novo teste de treinamento MLPerf para ajuste LLM (LoRA aplicado ao Meta✴ Llama 2 70B), os sistemas NVIDIA mostraram escalonamento eficaz com o número de aceleradores de 8 a 1024. A NVIDIA também aumentou o desempenho de treinamento do Stable Diffusion v2 em quase 80% em as mesmas escalas de sistema apresentadas em testes anteriores.

A NVIDIA observou que para empresas que executam aplicativos baseados em LLM, o alto desempenho é de grande importância. A capacidade de treinar e ajustar modelos mais poderosos — e colocá-los em funcionamento mais rapidamente — levará a melhores resultados e maiores receitas. E com o lançamento da plataforma NVIDIA Blackwell, em breve será possível treinar e inferir modelos generativos de IA com um trilhão de parâmetros.

avalanche

Postagens recentes

“Vejam onde Elder Scrolls e Fallout começaram”: Todd Howard defende Starfield.

Lançado em 2023, o RPG espacial Starfield provou ser um dos lançamentos mais controversos da…

1 hora atrás

Pesquisadores descobriram que agentes de IA no GitHub podem roubar credenciais.

Pesquisadores de segurança da Universidade Johns Hopkins (JHU) conseguiram comprometer os agentes de IA da…

2 horas atrás

A fabricante de tênis Allbirds anunciou sua entrada no espaço da inteligência artificial — e funcionou desde o primeiro dia.

A fabricante americana de calçados Allbirds mudou radicalmente seu foco, anunciando sua transformação em NewBird…

3 horas atrás

A alta demanda por sistemas de servidores causou escassez de componentes eletrônicos básicos.

O crescimento exponencial dos sistemas de inteligência artificial está causando escassez não apenas de chips…

3 horas atrás

Os lucros recordes da Samsung no primeiro trimestre aumentaram o risco de novas greves de funcionários.

As greves dos funcionários da Samsung Electronics continuam sendo raras; a maior delas ocorreu no…

5 horas atrás