Dell apresenta estações de trabalho Pro Max com superaceleradores GB10 e GB300

A Dell apresentou hoje as estações de trabalho Dell Pro Max com GB10 e Dell Pro Max com GB300, projetadas especificamente para desenvolvedores de IA e baseadas na arquitetura NVIDIA Grace Blackwell, anteriormente exclusiva para sistemas de data center.

De acordo com a empresa, as soluções Dell Pro Max integram-se perfeitamente ao ecossistema Dell AI Factory, oferecendo uma experiência unificada em todo o software NVIDIA AI Enterprise. Isso garante que os desenvolvedores que usam o Dell Pro Max com GB10 e o Dell Pro Max com GB300 possam mover livremente seus modelos entre ambientes – do desktop para a DGX Cloud ou infraestrutura de data center da Dell – praticamente sem alterações de código.

Dell Pro Max com GB10 Fonte da imagem: Dell

Os novos produtos executam o DGX OS e vêm com um stack NVIDIA AI Enterprise pré-configurado, que inclui ferramentas NVIDIA Blueprints. Essa abordagem holística acelera os fluxos de trabalho e simplifica o dimensionamento, permitindo que você crie e teste soluções protótipo localmente e depois dimensione-as perfeitamente na nuvem ou no data center. Ao combinar experimentação de desktop com escalabilidade de nível empresarial, a Dell facilita a inovação para desenvolvedores de IA, afirma a empresa.

Projetado para desenvolvedores, pesquisadores e estudantes, o Dell Pro Max com GB10 é um PC compacto e potente com até 1 petaflops de desempenho FP4. Ele permite a prototipagem, o ajuste e a implantação de modelos de IA de raciocínio com até 200 bilhões de parâmetros.

Dell Pro Max com GB300

Por sua vez, o Dell Pro Max com GB300 está posicionado como uma solução ideal para desenvolvedores avançados de IA que precisam do desempenho de um servidor de IA no desktop. O Dell Pro Max com GB300 é baseado no superacelerador NVIDIA GB300 (Blackwell Ultra) com 784 GB de memória unificada (288 GB de memória HBME3e no acelerador e 496 GB de LPDDR5X na CPU) e um adaptador de 800 GbE (ConnectX-8 SuperNIC). O desempenho do FP4 é de até 20 Pflops, tornando-o ideal para treinar e inferir cargas de trabalho de IA em larga escala usando modelos de grande linguagem (LLMs) com 460 bilhões de parâmetros.

avalanche

Postagens recentes

Começam a surgir fissuras no boom de financiamento de startups de fusão.

Em todos os setores em crescimento, fundadores e investidores se esforçam por um objetivo comum…

1 hora atrás

“Muito feliz e ainda atônito”: Clair Obscur: As vendas de Expedition 33 ultrapassam 8 milhões de cópias em seu primeiro aniversário.

O aclamado jogo de RPG de fantasia por turnos Clair Obscur: Expedition 33, do estúdio…

2 horas atrás

A Meta✴ implantará “dezenas de milhões” de núcleos AWS Graviton5 Arm.

A Meta✴, segundo o The Register, anunciou uma parceria ampliada com a AWS. Isso envolve…

2 horas atrás

Os três maiores colecionadores do Steam acumularam mais de 40.000 jogos em suas contas.

No outono passado, noticiamos que o usuário chinês Sonix se tornou o primeiro usuário do…

2 horas atrás

O Yandex começou a notificar os usuários quando golpistas ligam para seus entes queridos.

O recurso de identificação de chamadas do Yandex foi atualizado com uma nova funcionalidade: quando…

2 horas atrás