Já rotineiro: NVIDIA novamente melhorou resultados no benchmark MLPerf Training AI

As plataformas de computação NVIDIA demonstraram novamente alto desempenho, desta vez nos últimos testes MLPerf Training v4.0. Assim, o supercomputador NVIDIA EOS-DFW mais que triplicou seu desempenho no teste LLM baseado no GPT-3 175B em comparação ao resultado do ano passado.

Alegadamente, 11.616 aceleradores NVIDIA H100, combinados com a interconexão NVIDIA Quantum-2 InfiniBand de 400G, permitiram que o supercomputador EOS alcançasse um resultado tão significativo graças a uma abordagem maior e mais abrangente ao design do sistema. Isso possibilita treinar e operar modelos grandes com mais eficiência, economizando tempo e recursos, afirma a empresa. E o acelerador H200 mais moderno com um subsistema de memória aprimorado no MLPerf Training é 14% mais rápido que o H100, e nos testes GNN (RGAT) os nós com H200 revelaram-se mais rápidos que os nós com H100 em 47%.

Fonte da imagem: NVIDIA

De acordo com a empresa, os provedores de serviços LLM podem gerar US$ 7 em apenas quatro anos com um investimento de US$ 1 usando o modelo Llama 3 70B em servidores baseados em NVIDIA HGX H200, assumindo US$ 0,60 por milhão de manutenção e rendimento de token. A capacidade do HGX H200 é de 24 mil tokens por segundo.

O crescimento da produtividade também foi facilitado por melhorias e otimizações de software. Assim, um cluster de 512 chips H100 tornou-se 27% mais rápido ao longo de um ano, e o crescimento do desempenho com o aumento do número de aceleradores agora é mais linear. No novo teste de treinamento MLPerf para ajuste LLM (LoRA aplicado ao Meta✴ Llama 2 70B), os sistemas NVIDIA mostraram escalonamento eficaz com o número de aceleradores de 8 a 1024. A NVIDIA também aumentou o desempenho de treinamento do Stable Diffusion v2 em quase 80% em as mesmas escalas de sistema apresentadas em testes anteriores.

A NVIDIA observou que para empresas que executam aplicativos baseados em LLM, o alto desempenho é de grande importância. A capacidade de treinar e ajustar modelos mais poderosos — e colocá-los em funcionamento mais rapidamente — levará a melhores resultados e maiores receitas. E com o lançamento da plataforma NVIDIA Blackwell, em breve será possível treinar e inferir modelos generativos de IA com um trilhão de parâmetros.

avalanche

Postagens recentes

A Meta✴ teve que estender a vida útil de seus servidores devido à falta de memória.

A Meta✴ foi obrigada a estender a vida útil de alguns de seus servidores de…

4 horas atrás

A AST SpaceMobile aumentou em quase cinco vezes a velocidade da internet via satélite para smartphones.

A startup AST SpaceMobile, sediada no Texas e cuja futura constelação de satélites competirá com…

4 horas atrás

Calendário de lançamentos de 11 a 17 de maio: Subnautica 2, Outbound, Directive 8020 e Black Jacket.

Meados de maio se mostrou uma semana surpreendentemente forte. O principal lançamento da semana é…

5 horas atrás

O Google descobriu e bloqueou, pela primeira vez, uma vulnerabilidade de IA que permitia quebrar a autenticação de dois fatores (2FA).

O Google descobriu e bloqueou, pela primeira vez, uma vulnerabilidade zero-day (um método de ataque…

6 horas atrás

A AMD está desenvolvendo uma placa de vídeo Radeon RX 9050 para desktops com 8 GB de memória.

A AMD está preparando mais uma placa de vídeo para desktops da série Radeon RX…

6 horas atrás

Após cinco meses de testes beta, a Samsung lançou a One UI 8.5 para dispositivos Galaxy compatíveis.

A Samsung lançou a versão estável da sua interface de usuário proprietária One UI 8.5…

6 horas atrás