Introduzido o acelerador NVIDIA H100 com a mais recente arquitetura Hopper e memória HBM3

Durante o evento GTC 2022, a NVIDIA anunciou a nova arquitetura gráfica Hopper e os primeiros produtos baseados nela – os aceleradores de computação H100. Seus chips são cerca de 80 bilhões de transistores e são fabricados usando a tecnologia de processo TSMC N4 (5 nm aprimorado).

Fonte da imagem: NVIDIA

A empresa alega um aumento de três vezes no desempenho em operações FP64, TF32, FP16 e um aumento de seis vezes no desempenho em operações FP8 para o H100 em comparação com o NVIDIA A100.

O H100 também inclui 80 GB de memória HBM3 com largura de banda de 3 TB/s, que é 1,5 vezes mais que o atual acelerador NVIDIA A100 AI.

Os principais recursos dos aceleradores NVIDIA H100 são o novo Transformer Engine, suporte para instruções DPX especiais para programação dinâmica, a segunda geração da tecnologia de virtualização de GPU de múltiplas instâncias, suporte para a 4ª geração do barramento NVLink de 900 GB/s e o novo NVSwitch que permite conectar diretamente até 256 aceleradores. Todas essas inovações podem ser encontradas com mais detalhes no artigo de nossos colegas da ServerNews.

Os aceleradores NVIDIA H100 estarão disponíveis no formato de placa de expansão PCI Express 5.0 com um TDP de 350W e no formato SXM5 com um TDP declarado de 700W, que é 300W a mais que o A100. Ao mesmo tempo, a versão PCIe receberá um chip menos potente com 14.592 núcleos CUDA. O modelo no formato SXM5 será construído em um chip com 16.896 núcleos.

A empresa diz que os primeiros produtos baseados em aceleradores H100 serão a quarta geração de sistemas DGX – DGX H100, que será capaz de fornecer até 32 PFlops de desempenho computacional de IA em operações FP8. Os parceiros oferecerão plataformas HGX para 4 ou 8 aceleradores. A presença da quarta geração do barramento NVLink Switch permitirá a rede de até 32 sistemas DGX H100, formando a próxima geração de supercomputadores NVIDIA DGX SuperPOD em sua base. A própria NVIDIA está atualmente desenvolvendo o supercomputador EOS, que consistirá em 576 sistemas DGX H100 e receberá desempenho FP64 no nível de 275 Pflops e FP16 – 9 Eflops.

Os principais provedores de serviços em nuvem, como Alibaba Cloud, Amazon Web Services, Baidu AI Cloud, Google Cloud, Microsoft Azure, Oracle Cloud e Tencent Cloud, já demonstraram interesse na nova arquitetura de Hopper e planejam usar soluções baseadas em acelerador NVIDIA H100 em seus ecossistemas .

avalanche

Postagens recentes

IBM perdeu a liderança no número de patentes recebidas, mas foi planejado

Em 2022, a International Business Machines (IBM) perdeu a liderança em patentes nos EUA pela…

2 horas atrás

Um insider revelou a data da próxima apresentação do jogo da Microsoft – ele conterá novidades sobre os exclusivos do Xbox e da Bethesda

O editor da publicação Windows Central Jez Corden (Jez Corden), citando suas fontes, compartilhou informações…

4 horas atrás

OBS Studio obtém suporte para codificação AV1 em novas placas gráficas AMD e Intel

Foi lançado o OBS Studio 29.0, um aplicativo popular para gravação de vídeo e organização…

5 horas atrás

Os criadores de Dishonored e Prey esclareceram um equívoco comum sobre seu jogo de tiro cooperativo Redfall

O designer sênior de jogos da Arkane Studios, Ricardo Bare, e o CEO da Arkane…

5 horas atrás