Dell apresenta estações de trabalho Pro Max com superaceleradores GB10 e GB300

A Dell apresentou hoje as estações de trabalho Dell Pro Max com GB10 e Dell Pro Max com GB300, projetadas especificamente para desenvolvedores de IA e baseadas na arquitetura NVIDIA Grace Blackwell, anteriormente exclusiva para sistemas de data center.

De acordo com a empresa, as soluções Dell Pro Max integram-se perfeitamente ao ecossistema Dell AI Factory, oferecendo uma experiência unificada em todo o software NVIDIA AI Enterprise. Isso garante que os desenvolvedores que usam o Dell Pro Max com GB10 e o Dell Pro Max com GB300 possam mover livremente seus modelos entre ambientes – do desktop para a DGX Cloud ou infraestrutura de data center da Dell – praticamente sem alterações de código.

Dell Pro Max com GB10 Fonte da imagem: Dell

Os novos produtos executam o DGX OS e vêm com um stack NVIDIA AI Enterprise pré-configurado, que inclui ferramentas NVIDIA Blueprints. Essa abordagem holística acelera os fluxos de trabalho e simplifica o dimensionamento, permitindo que você crie e teste soluções protótipo localmente e depois dimensione-as perfeitamente na nuvem ou no data center. Ao combinar experimentação de desktop com escalabilidade de nível empresarial, a Dell facilita a inovação para desenvolvedores de IA, afirma a empresa.

Projetado para desenvolvedores, pesquisadores e estudantes, o Dell Pro Max com GB10 é um PC compacto e potente com até 1 petaflops de desempenho FP4. Ele permite a prototipagem, o ajuste e a implantação de modelos de IA de raciocínio com até 200 bilhões de parâmetros.

Dell Pro Max com GB300

Por sua vez, o Dell Pro Max com GB300 está posicionado como uma solução ideal para desenvolvedores avançados de IA que precisam do desempenho de um servidor de IA no desktop. O Dell Pro Max com GB300 é baseado no superacelerador NVIDIA GB300 (Blackwell Ultra) com 784 GB de memória unificada (288 GB de memória HBME3e no acelerador e 496 GB de LPDDR5X na CPU) e um adaptador de 800 GbE (ConnectX-8 SuperNIC). O desempenho do FP4 é de até 20 Pflops, tornando-o ideal para treinar e inferir cargas de trabalho de IA em larga escala usando modelos de grande linguagem (LLMs) com 460 bilhões de parâmetros.

avalanche

Postagens recentes

A desastrosa atualização do Windows 11 de janeiro também está causando problemas no processo de inicialização de alguns PCs.

A Microsoft confirmou que alguns usuários podem estar enfrentando problemas de inicialização após a instalação…

2 horas atrás

Computação de IA na OPU: Neurophos prepara acelerador de fótons Tulkas T100 de 56 GHz

A Neurophos, startup que desenvolve chips fotônicos para cargas de trabalho de IA, anunciou que…

4 horas atrás

O principal fabricante de robôs humanoides da China admitiu que, atualmente, eles são apenas metade tão eficazes quanto os humanos.

O rápido desenvolvimento da indústria da robótica nos últimos anos resultou na criação de inúmeros…

5 horas atrás

Os modelos de IA de código aberto chineses já conquistaram 15% do mercado global.

O sucesso do primeiro modelo de IA da DeepSeek no ano passado chamou a atenção…

5 horas atrás