Recentemente, a NVIDIA apresentou novamente oficialmente o supercomputador EOS para resolver tarefas que consomem muitos recursos no campo da IA. O Register chamou a atenção para inconsistências nas declarações públicas da empresa em relação à configuração e desempenho da máquina. Como resultado, a NVIDIA admitiu que possui dois sistemas arquitetonicamente semelhantes sob o mesmo nome. No entanto, isso não trouxe clareza total.
O complexo EOS LPC foi anunciado originalmente há quase dois anos – em março de 2022. Então estávamos falando de um cluster que reunia 576 sistemas NVIDIA DGX H100, cada um contendo oito aceleradores H100 – um total de 4.608 unidades. O supercomputador, de acordo com a NVIDIA, oferece desempenho de IA de 18,4 Eflops (FP8), enquanto o desempenho das operações FP16 é de 9 Eflops e FP64 é de 275 Pflops.
Ao mesmo tempo, em novembro de 2023, a NVIDIA anunciou que o supercomputador EOS AI havia estabelecido uma série de recordes nos benchmarks MLPerf Training. Em seguida, foi dito que o complexo contém 10.752 aceleradores H100, e seu desempenho no FP8 chega a 42,6 Eflops. A empresa disse que o supercomputador usado para treinamento MLPerf com 10.752 aceleradores H100 “é outro sistema relacionado construído na mesma arquitetura DGX SuperPOD”.
Ao mesmo tempo, o complexo que conquistou o 9º lugar no TOP500 em novembro de 2023 é justamente a versão EOS com 4608 aceleradores, apresentada outro dia no anúncio oficial. Mas… os números ainda não batem! No TOP500, o desempenho da EOS FP64 é de 121,4 Pflops com um valor de pico de 188,7 Pflops. A própria NVIDIA, como mencionado acima, estima o número em 275 Pflops.
Assim, um supercomputador participante da classificação TOP500 poderia conter de 2.816 a 3.161 aceleradores H100 de 4.608 declarados. A razão para esta discrepância não é totalmente clara. Foi sugerido que a NVIDIA pode ter tido dificuldade em garantir a estabilidade do cluster no momento em que a lista TOP500 foi compilada, então o sistema foi incluído nela em uma configuração simplificada.