A NVIDIA ganha até 1.000% dos lucros de cada venda do acelerador gráfico AI dedicado H100. É o que afirma o jornalista da publicação Barron Tae Kim (Tae Kim), referindo-se à análise da consultoria Raymond James.

Fonte da imagem: NVIDIA

No momento, o custo de cada acelerador NVIDIA H100, dependendo da região de vendas e do fornecedor, é em média de US $ 25 a 30 mil.Ao mesmo tempo, estamos falando de uma versão PCIe mais barata desta solução. De acordo com Raymond James, o custo da GPU usada neste acelerador, bem como materiais adicionais (placa de circuito e outros elementos auxiliares) é de US$ 3.320. Infelizmente, Kim não detalha a análise de custos e não explica se esse valor inclui fatores como custos de desenvolvimento, salários de engenheiros e custos de produção e logística.

O desenvolvimento de aceleradores especializados requer tempo e recursos significativos. De acordo com o mesmo portal Glassdoor, o salário médio de um engenheiro de hardware da NVIDIA é de cerca de US$ 202.000 por ano. Estamos falando de apenas um engenheiro, mas é óbvio que toda uma equipe de especialistas trabalhou no desenvolvimento do mesmo H100, e milhares de horas de trabalho foram gastas no próprio desenvolvimento. Tudo isso deve ser levado em consideração no custo final do produto.

E, no entanto, está claro que a NVIDIA está atualmente fora da concorrência no fornecimento de hardware para computação de IA. Há uma demanda tão grande por aceleradores “verdes” especializados agora que eles se esgotam muito antes de chegarem às prateleiras condicionais das lojas. Os fornecedores dizem que a fila para eles se estendeu até o segundo trimestre de 2024. E levando em conta as últimas estimativas dos analistas, segundo as quais o mercado de computação AI crescerá para US $ 150 bilhões até 2027, o futuro imediato da NVIDIA parece ser definitivamente confortável.

Por outro lado, para o mercado como um todo, a alta demanda por aceleradores de computação de IA tem suas consequências negativas. Os últimos relatórios de analistas dizem que as vendas de servidores tradicionais (HPC) estão diminuindo globalmente. A principal razão para a queda na demanda é que hiperescaladores e operadores de data centers estão voltando sua atenção para sistemas otimizados para IA que usam soluções como a NVIDIA H100. Por esse motivo, os mesmos fabricantes de memória DDR5 tiveram que reconsiderar suas expectativas em relação à disseminação do novo padrão de RAM para o mercado, já que as operadoras de data centers agora estão investindo ativamente em aceleradores de IA, e não no novo padrão de RAM. Nesse cenário, espera-se que as taxas de adoção de DDR5 atinjam a paridade com DDR4 apenas no terceiro trimestre de 2024.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *