Os aceleradores NVIDIA H100 AI baseados na microarquitetura Hopper, utilizados nos segmentos de inteligência artificial e computação de alto desempenho, não são suficientes para todos devido ao enorme nível de demanda. Enquanto isso, a NVIDIA já está preparando os clientes para o fato de que a próxima geração de produtos Blackwell também será escassa.
«Esperamos que a oferta de nossos produtos de próxima geração seja limitada à medida que a demanda supera a oferta”, disse Colette Kress, diretora financeira da NVIDIA, em uma teleconferência com investidores. Espera-se que os aceleradores NVIDIA B100 de próxima geração baseados na arquitetura Blackwell superem significativamente as soluções atuais baseadas em Hopper em tarefas relacionadas à IA em termos de desempenho e eficiência. Dada a enorme demanda por aceleradores de IA de alto desempenho no mercado, é provável que os clientes existentes da NVIDIA já tenham feito pré-encomendas de produtos da série Blackwell.
A questão é com que rapidez a empresa pode aumentar a produção de módulos SXM e placas PCIe B100, bem como de servidores DGX baseados neles – são produtos completamente novos que usam componentes completamente novos. De acordo com informações não confirmadas, Blackwell será a primeira arquitetura NVIDIA com layout de chiplet. Por um lado, isso ajudará a simplificar a produção de gráficos Blackwell no nível do silício, uma vez que é mais fácil maximizar o rendimento de chips menores; por outro lado, os componentes dos chips são mais difíceis de embalar.
Além do carro-chefe B100, a NVIDIA está preparando uma versão especial do B40 para clientes corporativos e instituições de ensino, o modelo GB200 com processador gráfico B100 e processador Grace Arm, além do GB200 NVL para treinamento de modelos de grandes linguagens. Em novembro, a NVIDIA apresentou o acelerador H200 – baseado na arquitetura Hopper, mas com maior largura de banda e memória – e agora está aumentando sua produção. Mas a empresa ainda não consegue satisfazer plenamente a demanda pelo novo produto.