O Texas Advanced Computing Center (TACC) da Universidade do Texas em Austin (EUA) anunciou que o poder do novo complexo Vista HPC está totalmente disponível para a comunidade científica aberta. O supercomputador foi projetado para resolver tarefas que consomem muitos recursos relacionadas à IA.
O anúncio formal da máquina Vista ocorreu em novembro de 2023. Na época, foi dito que o Vista se tornaria um elo entre o supercomputador TACC Frontera existente e o futuro sistema TACC Horizon, que é financiado pela National Science Foundation (NSF).
O Vista tem duas partes principais. Um deles é um cluster de 600 nós em superchips híbridos NVIDIA GH200 Grace Hopper, que contêm um processador NVIDIA Grace Arm de 72 núcleos e um acelerador H100/H200. Fornece desempenho de 20,4 Pflops (FP64) e 40,8 Pflops em núcleos tensores. Cada nó contém 512 GB de armazenamento local, 96 GB de memória HBM3 e 120 GB de memória LPDDR5. Interconexão – Quantum 2 InfiniBand (400G).
A segunda seção do supercomputador combina 256 nós com processadores NVIDIA Grace CPU Superchip contendo dois cristais Grace em um módulo (144 núcleos). Os nós são equipados com 240 GB de memória LPDDR5 e um drive de 512 GB. Interconexão – Quantum 2 InfiniBand (200G). Os nós foram fabricados pela Gigabyte, e a Dell foi responsável pela integração de todo o sistema.
O desempenho geral da CPU do Vista é de 4,1 Pflops. O complexo inclui um armazenamento VAST Data NFS com capacidade de 30 PB. O supercomputador será utilizado para desenvolver e aplicar soluções generativas de IA em vários setores, incluindo ciências da vida e saúde.
O fato de GTA VI ser um sucesso já está claro, mas que tipo de…
A Nvidia concluiu a aquisição da startup de IA Run:ai por US$ 700 milhões, logo…
A Intel está se preparando para apresentar os processadores Arrow Lake para desktop de 65…
No fim de semana passado, um protótipo do trem elétrico de alta velocidade CR450 foi…
Os preços da memória DRAM convencional diminuirão de 8 a 13% e, levando em consideração…
Especialistas do EXO Labs conseguiram executar um Llama de modelo de linguagem grande (LLM) bastante…