HPE e NVIDIA anunciaram um sistema modular de supercomputação para IA generativa e modelos de treinamento baseados em conjuntos de dados privados. O complexo destina-se a grandes empresas, organizações de pesquisa e agências governamentais.

A solução é baseada na plataforma de hardware Cray EX2500. A composição inclui superchips NVIDIA GH200 Grace Hopper contendo um processador NVIDIA Grace Arm de 72 núcleos e um acelerador NVIDIA H200. Cada nó do sistema usa quatro desses superchips. Os nós são conectados entre si usando a interconexão Slingshot.

Diz-se que a arquitetura implementada permite escalar para milhares de aceleradores. Ao mesmo tempo, todo o poder pode ser alocado para resolver uma tarefa de IA, o que garante a máxima eficiência no uso dos recursos. Na verdade, a nova solução é uma miniversão do supercomputador Isambard-AI AI, que ficará localizado na Universidade de Bristol (Reino Unido). A HPE e a NVIDIA oferecerão o sistema como uma solução pronta para uso com serviços de instalação e configuração.

Fonte da imagem: HPE

Além disso, há uma pilha de software para resolver vários problemas de IA: este é o HPE Machine Learning Development Environment, o kit de ferramentas HPE Cray Programming Environment e o pacote NVIDIA AI Enterprise. No geral, conforme observado, o novo sistema oferece aos clientes o desempenho e a escalabilidade que lhes permitem resolver os problemas mais complexos de IA, incluindo o treinamento de grandes modelos de linguagem (LLM) e a criação de sistemas de recomendação.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *