Introduzido o acelerador NVIDIA H100 com a mais recente arquitetura Hopper e memória HBM3

Durante o evento GTC 2022, a NVIDIA anunciou a nova arquitetura gráfica Hopper e os primeiros produtos baseados nela – os aceleradores de computação H100. Seus chips são cerca de 80 bilhões de transistores e são fabricados usando a tecnologia de processo TSMC N4 (5 nm aprimorado).

Fonte da imagem: NVIDIA

A empresa alega um aumento de três vezes no desempenho em operações FP64, TF32, FP16 e um aumento de seis vezes no desempenho em operações FP8 para o H100 em comparação com o NVIDIA A100.

O H100 também inclui 80 GB de memória HBM3 com largura de banda de 3 TB/s, que é 1,5 vezes mais que o atual acelerador NVIDIA A100 AI.

Os principais recursos dos aceleradores NVIDIA H100 são o novo Transformer Engine, suporte para instruções DPX especiais para programação dinâmica, a segunda geração da tecnologia de virtualização de GPU de múltiplas instâncias, suporte para a 4ª geração do barramento NVLink de 900 GB/s e o novo NVSwitch que permite conectar diretamente até 256 aceleradores. Todas essas inovações podem ser encontradas com mais detalhes no artigo de nossos colegas da ServerNews.

Os aceleradores NVIDIA H100 estarão disponíveis no formato de placa de expansão PCI Express 5.0 com um TDP de 350W e no formato SXM5 com um TDP declarado de 700W, que é 300W a mais que o A100. Ao mesmo tempo, a versão PCIe receberá um chip menos potente com 14.592 núcleos CUDA. O modelo no formato SXM5 será construído em um chip com 16.896 núcleos.

A empresa diz que os primeiros produtos baseados em aceleradores H100 serão a quarta geração de sistemas DGX – DGX H100, que será capaz de fornecer até 32 PFlops de desempenho computacional de IA em operações FP8. Os parceiros oferecerão plataformas HGX para 4 ou 8 aceleradores. A presença da quarta geração do barramento NVLink Switch permitirá a rede de até 32 sistemas DGX H100, formando a próxima geração de supercomputadores NVIDIA DGX SuperPOD em sua base. A própria NVIDIA está atualmente desenvolvendo o supercomputador EOS, que consistirá em 576 sistemas DGX H100 e receberá desempenho FP64 no nível de 275 Pflops e FP16 – 9 Eflops.

Os principais provedores de serviços em nuvem, como Alibaba Cloud, Amazon Web Services, Baidu AI Cloud, Google Cloud, Microsoft Azure, Oracle Cloud e Tencent Cloud, já demonstraram interesse na nova arquitetura de Hopper e planejam usar soluções baseadas em acelerador NVIDIA H100 em seus ecossistemas .

avalanche

Postagens recentes

A Apple se recusou a implementar Claude na Siri devido à insaciabilidade da Anthropic.

A Apple abandonou o modelo de IA Claude da Anthropic para aprimorar a Siri e,…

6 horas atrás

Escape from Mars: O primeiro trailer do jogo de tiro de ficção científica Cor3, dos criadores de Escape from Tarkov, foi lançado.

Conforme previsto pela contagem regressiva no site de divulgação, o dia 1º de fevereiro marcou…

8 horas atrás

A Intel apresentou um protótipo de um enorme chip de IA com quatro unidades lógicas e 12 módulos HBM4.

A Intel Foundry divulgou um relatório técnico detalhando as soluções avançadas de design e implementação…

14 horas atrás

A Samsung, a SK Hynix e a Micron estão reavaliando todos os pedidos de memória para evitar compras em grande quantidade.

Segundo o Nikkei Asia, três grandes fabricantes de chips de memória — Micron, SK Hynix…

14 horas atrás

O console portátil MSI Claw A8 com Ryzen Z2 Extreme chegou aos EUA e à Europa, com preço de US$ 1.149 para a versão com 24 GB de RAM.

O MSI Claw A8 é o primeiro console portátil da empresa baseado na plataforma AMD.…

16 horas atrás

A SK Hynix supera a Samsung em lucro anual pela primeira vez em meio ao boom da IA.

Historicamente, a Samsung Electronics tem sido consistentemente a maior fornecedora mundial de componentes semicondutores em…

18 horas atrás