Supercomputador Cloud AI AWS Project Ceiba receberá 21 mil superchips NVIDIA GB200

Amazon Web Services (AWS) e NVIDIA anunciaram uma colaboração ampliada que em breve trará os aceleradores GB200 e B100 para a nuvem AWS. Além disso, as empresas anunciaram a integração do Amazon SageMaker com NVIDIA NIM para fornecer aos clientes inferência mais rápida e barata, o aparecimento de novos modelos básicos NVIDIA BioNeMo no AWS HealthOmics e suporte da AWS para a plataforma NVIDIA AI Enterprise atualizada.

A colaboração das duas empresas reúne suas tecnologias mais recentes em uma única infraestrutura, incluindo sistemas multi-nós baseados em chips NVIDIA Blackwell, software de IA, AWS Nitro, AWS Key Management Service (AWS KMS), Elastic Fabric Network Adapters (EFA) e Clusters EC2 UltraCluster. A infraestrutura e as ferramentas propostas permitirão que os clientes criem e executem LLMs de vários trilhões de parâmetros com mais rapidez, escala e custo menor do que as instâncias EC2 com aceleradores NVIDIA da geração anterior.

A AWS oferecerá EC2 UltraClusters de superaceleradores GB200 NVL72 que agregarão milhares de chips GB200. O GB200 também estará disponível como parte das instâncias NVIDIA DGX Cloud. A AWS também oferecerá EC2 UltraClusters com aceleradores B100. A Amazon observa que a combinação de AWS Nitro e NVIDIA GB200 aumentará ainda mais a segurança dos modelos de IA: GB200 fornece criptografia NVLink, EFA criptografa dados em trânsito entre nós de cluster e KMS permite gerenciar centralmente chaves de criptografia.

Fonte da imagem: NVIDIA

O hipervisor de hardware AWS Nitro, como antes, descarrega a CPU dos nós, assumindo o processamento das operações de E/S e também protege o código e os dados enquanto trabalha com eles. Este recurso, disponível apenas em serviços AWS, foi testado e verificado pelo Grupo NCC. As instâncias GB200 oferecem suporte ao AWS Nitro Enclaves, permitindo que você interaja diretamente com o acelerador e os dados em um ambiente isolado e seguro que nem mesmo os funcionários da Amazon podem acessar.

Fonte da imagem: NVIDIA

Os chips Blackwell serão usados ​​no supercomputador em nuvem atualizado do AWS Project Ceiba, que será usado pela NVIDIA para pesquisa e desenvolvimento nas áreas de LLM, geração de imagem/vídeo/3D, modelagem, biologia digital, robótica, carros autônomos, clima previsão, etc. Esta máquina GB200 baseada em NVL72, inédita, consistirá em 20.736 superchips GB200, cada um com conectividade EFA de 800 Gbps. O desempenho máximo do sistema no FP8 será de 414 Eflops.

avalanche

Postagens recentes

A Apple se recusou a implementar Claude na Siri devido à insaciabilidade da Anthropic.

A Apple abandonou o modelo de IA Claude da Anthropic para aprimorar a Siri e,…

2 horas atrás

A Intel apresentou um protótipo de um enorme chip de IA com quatro unidades lógicas e 12 módulos HBM4.

A Intel Foundry divulgou um relatório técnico detalhando as soluções avançadas de design e implementação…

9 horas atrás

A Samsung, a SK Hynix e a Micron estão reavaliando todos os pedidos de memória para evitar compras em grande quantidade.

Segundo o Nikkei Asia, três grandes fabricantes de chips de memória — Micron, SK Hynix…

9 horas atrás

O console portátil MSI Claw A8 com Ryzen Z2 Extreme chegou aos EUA e à Europa, com preço de US$ 1.149 para a versão com 24 GB de RAM.

O MSI Claw A8 é o primeiro console portátil da empresa baseado na plataforma AMD.…

12 horas atrás

A SK Hynix supera a Samsung em lucro anual pela primeira vez em meio ao boom da IA.

Historicamente, a Samsung Electronics tem sido consistentemente a maior fornecedora mundial de componentes semicondutores em…

14 horas atrás