Os prazos de entrega dos aceleradores Nvidia H100 AI foram reduzidos para 2–3 meses

Os prazos de entrega dos aceleradores Nvidia H100 AI foram reduzidos de 3-4 para 2-3 meses (8-12 semanas), relata DigiTimes, citando uma declaração de Terence Liao, diretor do escritório da Dell em Taiwan. Os fornecedores ODM de equipamentos de servidor observam que a escassez de aceleradores especializados começou a diminuir em comparação com 2023, quando era quase impossível comprar uma Nvidia H100.

Fonte da imagem: NVIDIA

Segundo Liao, apesar da redução nos prazos de fornecimento de aceleradores de IA, a demanda por esses equipamentos no mercado ainda é extremamente elevada. E apesar do alto custo, o volume de compras de servidores de IA é significativamente maior do que as compras de equipamentos de servidores de uso geral.

O prazo de entrega de 2 a 3 meses é o menor prazo de entrega para aceleradores Nvidia H100 de todos os tempos. Apenas seis meses atrás, eram 11 meses. Ou seja, os clientes da Nvidia tiveram que esperar quase um ano para que seus pedidos fossem atendidos. Desde o início de 2024, os prazos de entrega diminuíram significativamente. No início, caíram para 3–4 meses e agora para 2–3 meses. Nesse ritmo, a escassez de aceleradores de IA poderá ser eliminada até o final deste ano ou até antes.

Parte dessa dinâmica pode ter a ver com os próprios compradores de aceleradores de IA. Algumas empresas que possuem H100 excedentes que não estão sendo usados ​​os estão revendendo para compensar o enorme custo de adquiri-los. Além disso, a situação atual pode ser uma consequência do facto de o fornecedor de computação em nuvem AWS ter simplificado o aluguer de aceleradores Nvidia H100 AI através da nuvem, o que por sua vez também ajuda parcialmente a reduzir a procura por eles.

Os únicos clientes da Nvidia que continuam a enfrentar desafios no fornecimento de hardware de IA são grandes empresas de IA como a OpenAI, que utilizam dezenas de milhares de aceleradores semelhantes para treinar de forma rápida e eficiente os seus grandes modelos de linguagem de IA.

avalanche

Postagens recentes

A Anthropic lançou o Claude Cowork, uma solução de compartilhamento autônomo de arquivos com IA para macOS.

A Anthropic lançou uma nova funcionalidade para seu assistente de IA, Claude, chamada Claude Cowork.…

2 horas atrás

Automontagem Direcionada (DSA): Não é um substituto para EUV, mas sim uma ferramenta muito útil / Offsyanka

Quando, há mais de uma década, no final de 2014, especialistas líderes da indústria de…

7 horas atrás

Meta visa centenas de gigawatts para IA: Zuckerberg lança o projeto de ponta Meta Compute

O CEO da Meta✴, Mark Zuckerberg, anunciou o lançamento de uma nova iniciativa de ponta…

7 horas atrás

O Windows 11 oculta quais drivers instala — a Microsoft promete corrigir o problema.

Usuários do Windows 11 notaram que as atualizações de drivers recebidas pelo Windows Update são…

7 horas atrás

Disco Elysium, Blue Prince, Return of the Obra Dinn e muito mais: o Festival de Detetives do Steam convida você a caçar descontos.

Conforme o cronograma apresentado no verão passado, o primeiro festival temático do modelo de 2026,…

9 horas atrás