Dell apresenta estações de trabalho Pro Max com superaceleradores GB10 e GB300

A Dell apresentou hoje as estações de trabalho Dell Pro Max com GB10 e Dell Pro Max com GB300, projetadas especificamente para desenvolvedores de IA e baseadas na arquitetura NVIDIA Grace Blackwell, anteriormente exclusiva para sistemas de data center.

De acordo com a empresa, as soluções Dell Pro Max integram-se perfeitamente ao ecossistema Dell AI Factory, oferecendo uma experiência unificada em todo o software NVIDIA AI Enterprise. Isso garante que os desenvolvedores que usam o Dell Pro Max com GB10 e o Dell Pro Max com GB300 possam mover livremente seus modelos entre ambientes – do desktop para a DGX Cloud ou infraestrutura de data center da Dell – praticamente sem alterações de código.

Dell Pro Max com GB10 Fonte da imagem: Dell

Os novos produtos executam o DGX OS e vêm com um stack NVIDIA AI Enterprise pré-configurado, que inclui ferramentas NVIDIA Blueprints. Essa abordagem holística acelera os fluxos de trabalho e simplifica o dimensionamento, permitindo que você crie e teste soluções protótipo localmente e depois dimensione-as perfeitamente na nuvem ou no data center. Ao combinar experimentação de desktop com escalabilidade de nível empresarial, a Dell facilita a inovação para desenvolvedores de IA, afirma a empresa.

Projetado para desenvolvedores, pesquisadores e estudantes, o Dell Pro Max com GB10 é um PC compacto e potente com até 1 petaflops de desempenho FP4. Ele permite a prototipagem, o ajuste e a implantação de modelos de IA de raciocínio com até 200 bilhões de parâmetros.

Dell Pro Max com GB300

Por sua vez, o Dell Pro Max com GB300 está posicionado como uma solução ideal para desenvolvedores avançados de IA que precisam do desempenho de um servidor de IA no desktop. O Dell Pro Max com GB300 é baseado no superacelerador NVIDIA GB300 (Blackwell Ultra) com 784 GB de memória unificada (288 GB de memória HBME3e no acelerador e 496 GB de LPDDR5X na CPU) e um adaptador de 800 GbE (ConnectX-8 SuperNIC). O desempenho do FP4 é de até 20 Pflops, tornando-o ideal para treinar e inferir cargas de trabalho de IA em larga escala usando modelos de grande linguagem (LLMs) com 460 bilhões de parâmetros.

avalanche

Postagens recentes

A Apple esgotou todos os Mac Studios com 256 GB de RAM, e o prazo de entrega pode chegar a 4-5 meses.

A Apple normalmente não vende produtos para o consumidor final que demorem meses para serem…

34 minutos atrás

O módulo de pouso Blue Ghost da Firefly Aerospace pousou com sucesso na Lua, revelando algo inesperado.

Em março de 2025, o módulo lunar Blue Ghost, desenvolvido pela Firefly Aerospace, pousou com…

1 hora atrás

Os fabricantes chineses de chips encerraram o ano passado com receitas recordes.

O boom da IA ​​também está impulsionando o crescimento da receita dos fabricantes de chips…

3 horas atrás

O suporte do acelerador de IA DeepSeek V4 da Huawei impulsionou a demanda na China.

Para desenvolvedores de IA, a compatibilidade de determinadas soluções de hardware com seus softwares existentes…

5 horas atrás

O voo de teste da Starship V3 da SpaceX foi adiado novamente por um mês.

Na primeira quinzena de março, o fundador da SpaceX, Elon Musk, anunciou que o primeiro…

5 horas atrás

Revolta nas máquinas de lavar: Uma atualização de software impediu que clientes da Samsung lavassem suas roupas.

A melhoria da funcionalidade dos dispositivos por meio de atualizações de software tornou-se a norma…

6 horas atrás