Os prazos de entrega dos aceleradores Nvidia H100 AI foram reduzidos para 2–3 meses

Os prazos de entrega dos aceleradores Nvidia H100 AI foram reduzidos de 3-4 para 2-3 meses (8-12 semanas), relata DigiTimes, citando uma declaração de Terence Liao, diretor do escritório da Dell em Taiwan. Os fornecedores ODM de equipamentos de servidor observam que a escassez de aceleradores especializados começou a diminuir em comparação com 2023, quando era quase impossível comprar uma Nvidia H100.

Fonte da imagem: NVIDIA

Segundo Liao, apesar da redução nos prazos de fornecimento de aceleradores de IA, a demanda por esses equipamentos no mercado ainda é extremamente elevada. E apesar do alto custo, o volume de compras de servidores de IA é significativamente maior do que as compras de equipamentos de servidores de uso geral.

O prazo de entrega de 2 a 3 meses é o menor prazo de entrega para aceleradores Nvidia H100 de todos os tempos. Apenas seis meses atrás, eram 11 meses. Ou seja, os clientes da Nvidia tiveram que esperar quase um ano para que seus pedidos fossem atendidos. Desde o início de 2024, os prazos de entrega diminuíram significativamente. No início, caíram para 3–4 meses e agora para 2–3 meses. Nesse ritmo, a escassez de aceleradores de IA poderá ser eliminada até o final deste ano ou até antes.

Parte dessa dinâmica pode ter a ver com os próprios compradores de aceleradores de IA. Algumas empresas que possuem H100 excedentes que não estão sendo usados ​​os estão revendendo para compensar o enorme custo de adquiri-los. Além disso, a situação atual pode ser uma consequência do facto de o fornecedor de computação em nuvem AWS ter simplificado o aluguer de aceleradores Nvidia H100 AI através da nuvem, o que por sua vez também ajuda parcialmente a reduzir a procura por eles.

Os únicos clientes da Nvidia que continuam a enfrentar desafios no fornecimento de hardware de IA são grandes empresas de IA como a OpenAI, que utilizam dezenas de milhares de aceleradores semelhantes para treinar de forma rápida e eficiente os seus grandes modelos de linguagem de IA.

avalanche

Postagens recentes

O Internet Archive está assumindo a tarefa de curar a internet da “deterioração de links”.

O Internet Archive Project é uma organização sem fins lucrativos que, como o próprio nome…

1 hora atrás

“Então Concord não te ensinou nada?” A Sony anunciou o jogo de ação cooperativo Horizon Hunters Gathering, e os fãs estão confusos.

A editora Sony Interactive Entertainment e a desenvolvedora Guerrilla Games revelaram por completo o spin-off…

2 horas atrás

O Bitcoin despencou para menos de US$ 67.000, com os investidores assustados e vendendo suas moedas.

O Bitcoin caiu para US$ 66.896,43 hoje, com o sentimento dos investidores se inclinando cada…

2 horas atrás

A Starlink se tornou uma mina de ouro para a SpaceX e está prestes a se expandir, passando de dispositivos de IA para satélites ao controle orbital.

Antecipando seu IPO previsto para este ano, a SpaceX planeja expandir sua divisão Starlink e…

2 horas atrás

A Intel desenvolveu uma nova geração de capacitores integrados — a chave para o fornecimento estável de energia para os chips de IA do futuro.

Ao discutirmos novas tecnologias de processo, constantemente mencionamos os transistores como componentes-chave que determinam o…

2 horas atrás

The Elder Scrolls IV: Oblivion Remastered chegará ao Nintendo Switch 2, mas os fãs não estão exatamente entusiasmados.

Juntamente com as datas de lançamento das versões para Nintendo Switch 2 de Fallout 4…

3 horas atrás