Dell apresenta estações de trabalho Pro Max com superaceleradores GB10 e GB300

A Dell apresentou hoje as estações de trabalho Dell Pro Max com GB10 e Dell Pro Max com GB300, projetadas especificamente para desenvolvedores de IA e baseadas na arquitetura NVIDIA Grace Blackwell, anteriormente exclusiva para sistemas de data center.

De acordo com a empresa, as soluções Dell Pro Max integram-se perfeitamente ao ecossistema Dell AI Factory, oferecendo uma experiência unificada em todo o software NVIDIA AI Enterprise. Isso garante que os desenvolvedores que usam o Dell Pro Max com GB10 e o Dell Pro Max com GB300 possam mover livremente seus modelos entre ambientes – do desktop para a DGX Cloud ou infraestrutura de data center da Dell – praticamente sem alterações de código.

Dell Pro Max com GB10 Fonte da imagem: Dell

Os novos produtos executam o DGX OS e vêm com um stack NVIDIA AI Enterprise pré-configurado, que inclui ferramentas NVIDIA Blueprints. Essa abordagem holística acelera os fluxos de trabalho e simplifica o dimensionamento, permitindo que você crie e teste soluções protótipo localmente e depois dimensione-as perfeitamente na nuvem ou no data center. Ao combinar experimentação de desktop com escalabilidade de nível empresarial, a Dell facilita a inovação para desenvolvedores de IA, afirma a empresa.

Projetado para desenvolvedores, pesquisadores e estudantes, o Dell Pro Max com GB10 é um PC compacto e potente com até 1 petaflops de desempenho FP4. Ele permite a prototipagem, o ajuste e a implantação de modelos de IA de raciocínio com até 200 bilhões de parâmetros.

Dell Pro Max com GB300

Por sua vez, o Dell Pro Max com GB300 está posicionado como uma solução ideal para desenvolvedores avançados de IA que precisam do desempenho de um servidor de IA no desktop. O Dell Pro Max com GB300 é baseado no superacelerador NVIDIA GB300 (Blackwell Ultra) com 784 GB de memória unificada (288 GB de memória HBME3e no acelerador e 496 GB de LPDDR5X na CPU) e um adaptador de 800 GbE (ConnectX-8 SuperNIC). O desempenho do FP4 é de até 20 Pflops, tornando-o ideal para treinar e inferir cargas de trabalho de IA em larga escala usando modelos de grande linguagem (LLMs) com 460 bilhões de parâmetros.

avalanche

Postagens recentes

Perspectivas para 2025: Software / Análise

Olhando para trás, é difícil negar o óbvio: o ano passado foi bastante fraco em…

15 horas atrás

O Blu-ray celebra seu 20º aniversário, mas não pretende se aposentar tão cedo.

Exatamente vinte anos atrás, o Blu-ray foi apresentado ao público na CES em Las Vegas.…

17 horas atrás

O serviço de streaming de jogos GeForce Now da Nvidia receberá suporte para Linux.

A Nvidia está se preparando para adicionar suporte a computadores Linux ao seu serviço de…

20 horas atrás

Telegram lança a primeira atualização de 2026: recontagens de IA do Cocoon e um novo design para iOS.

Em sua primeira atualização de 2026, o Telegram introduziu um recurso que gera automaticamente resumos…

22 horas atrás