Cada vez maior: a NVIDIA tinha dois supercomputadores EOS AI ao mesmo tempo

Recentemente, a NVIDIA apresentou novamente oficialmente o supercomputador EOS para resolver tarefas que consomem muitos recursos no campo da IA. O Register chamou a atenção para inconsistências nas declarações públicas da empresa em relação à configuração e desempenho da máquina. Como resultado, a NVIDIA admitiu que possui dois sistemas arquitetonicamente semelhantes sob o mesmo nome. No entanto, isso não trouxe clareza total.

O complexo EOS LPC foi anunciado originalmente há quase dois anos – em março de 2022. Então estávamos falando de um cluster que reunia 576 sistemas NVIDIA DGX H100, cada um contendo oito aceleradores H100 – um total de 4.608 unidades. O supercomputador, de acordo com a NVIDIA, oferece desempenho de IA de 18,4 Eflops (FP8), enquanto o desempenho das operações FP16 é de 9 Eflops e FP64 é de 275 Pflops.

Ao mesmo tempo, em novembro de 2023, a NVIDIA anunciou que o supercomputador EOS AI havia estabelecido uma série de recordes nos benchmarks MLPerf Training. Em seguida, foi dito que o complexo contém 10.752 aceleradores H100, e seu desempenho no FP8 chega a 42,6 Eflops. A empresa disse que o supercomputador usado para treinamento MLPerf com 10.752 aceleradores H100 “é outro sistema relacionado construído na mesma arquitetura DGX SuperPOD”.

Ao mesmo tempo, o complexo que conquistou o 9º lugar no TOP500 em novembro de 2023 é justamente a versão EOS com 4608 aceleradores, apresentada outro dia no anúncio oficial. Mas… os números ainda não batem! No TOP500, o desempenho da EOS FP64 é de 121,4 Pflops com um valor de pico de 188,7 Pflops. A própria NVIDIA, como mencionado acima, estima o número em 275 Pflops.

Assim, um supercomputador participante da classificação TOP500 poderia conter de 2.816 a 3.161 aceleradores H100 de 4.608 declarados. A razão para esta discrepância não é totalmente clara. Foi sugerido que a NVIDIA pode ter tido dificuldade em garantir a estabilidade do cluster no momento em que a lista TOP500 foi compilada, então o sistema foi incluído nela em uma configuração simplificada.

avalanche

Postagens recentes

A Apple se recusou a implementar Claude na Siri devido à insaciabilidade da Anthropic.

A Apple abandonou o modelo de IA Claude da Anthropic para aprimorar a Siri e,…

28 minutos atrás

A Intel apresentou um protótipo de um enorme chip de IA com quatro unidades lógicas e 12 módulos HBM4.

A Intel Foundry divulgou um relatório técnico detalhando as soluções avançadas de design e implementação…

8 horas atrás

A Samsung, a SK Hynix e a Micron estão reavaliando todos os pedidos de memória para evitar compras em grande quantidade.

Segundo o Nikkei Asia, três grandes fabricantes de chips de memória — Micron, SK Hynix…

8 horas atrás

O console portátil MSI Claw A8 com Ryzen Z2 Extreme chegou aos EUA e à Europa, com preço de US$ 1.149 para a versão com 24 GB de RAM.

O MSI Claw A8 é o primeiro console portátil da empresa baseado na plataforma AMD.…

11 horas atrás

A SK Hynix supera a Samsung em lucro anual pela primeira vez em meio ao boom da IA.

Historicamente, a Samsung Electronics tem sido consistentemente a maior fornecedora mundial de componentes semicondutores em…

12 horas atrás