Já rotineiro: NVIDIA novamente melhorou resultados no benchmark MLPerf Training AI

As plataformas de computação NVIDIA demonstraram novamente alto desempenho, desta vez nos últimos testes MLPerf Training v4.0. Assim, o supercomputador NVIDIA EOS-DFW mais que triplicou seu desempenho no teste LLM baseado no GPT-3 175B em comparação ao resultado do ano passado.

Alegadamente, 11.616 aceleradores NVIDIA H100, combinados com a interconexão NVIDIA Quantum-2 InfiniBand de 400G, permitiram que o supercomputador EOS alcançasse um resultado tão significativo graças a uma abordagem maior e mais abrangente ao design do sistema. Isso possibilita treinar e operar modelos grandes com mais eficiência, economizando tempo e recursos, afirma a empresa. E o acelerador H200 mais moderno com um subsistema de memória aprimorado no MLPerf Training é 14% mais rápido que o H100, e nos testes GNN (RGAT) os nós com H200 revelaram-se mais rápidos que os nós com H100 em 47%.

Fonte da imagem: NVIDIA

De acordo com a empresa, os provedores de serviços LLM podem gerar US$ 7 em apenas quatro anos com um investimento de US$ 1 usando o modelo Llama 3 70B em servidores baseados em NVIDIA HGX H200, assumindo US$ 0,60 por milhão de manutenção e rendimento de token. A capacidade do HGX H200 é de 24 mil tokens por segundo.

O crescimento da produtividade também foi facilitado por melhorias e otimizações de software. Assim, um cluster de 512 chips H100 tornou-se 27% mais rápido ao longo de um ano, e o crescimento do desempenho com o aumento do número de aceleradores agora é mais linear. No novo teste de treinamento MLPerf para ajuste LLM (LoRA aplicado ao Meta✴ Llama 2 70B), os sistemas NVIDIA mostraram escalonamento eficaz com o número de aceleradores de 8 a 1024. A NVIDIA também aumentou o desempenho de treinamento do Stable Diffusion v2 em quase 80% em as mesmas escalas de sistema apresentadas em testes anteriores.

A NVIDIA observou que para empresas que executam aplicativos baseados em LLM, o alto desempenho é de grande importância. A capacidade de treinar e ajustar modelos mais poderosos — e colocá-los em funcionamento mais rapidamente — levará a melhores resultados e maiores receitas. E com o lançamento da plataforma NVIDIA Blackwell, em breve será possível treinar e inferir modelos generativos de IA com um trilhão de parâmetros.

avalanche

Postagens recentes

Pela primeira vez em um caso de vício em redes sociais, um tribunal dos EUA aplicou uma multa de US$ 6 milhões a um usuário.

Um júri de Los Angeles proferiu um veredicto no primeiro julgamento da história sobre vício…

13 minutos atrás

A Sonova decidiu vender sua divisão de fones de ouvido para a Sennheiser.

A Sonova, fabricante suíça de aparelhos auditivos, decidiu vender sua divisão de aparelhos auditivos para…

38 minutos atrás

A Meta está passando por uma nova onda de demissões, tudo em nome da inteligência artificial.

A Meta✴ iniciou mais uma onda de demissões em massa. Centenas de funcionários já foram…

53 minutos atrás

O Google classificou o Android e o Chrome como as plataformas de navegação na web mais rápidas.

O Google anunciou que o Android e o Chrome, juntos, agora são as plataformas de…

53 minutos atrás

O YouTube tem bombardeado alguns usuários com testes CAPTCHA antes de assistirem aos vídeos.

Alguns usuários do YouTube têm encontrado dificuldades ao usar o site devido a um CAPTCHA…

7 horas atrás