A alta demanda por servidores avançados para sistemas de inteligência artificial por parte de grandes provedores de serviços em nuvem e seus clientes continuará até o final de 2024, estão confiantes os analistas da TrendForce. As expansões de produção da TSMC, SK hynix, Samsung e Micron reduziram significativamente o déficit no segundo trimestre de 2024, com prazos de entrega de pedidos para os principais aceleradores H100 AI da Nvidia reduzidos das 40-50 semanas anteriores para menos de 16 semanas.

Fonte da imagem: nvidia.com

O volume de remessas de servidores de IA no final do segundo trimestre aumentou quase 20% em relação ao trimestre anterior, segundo estimativa preliminar da TrendForce – a previsão anual de fornecimento foi revisada para 1,67 milhão de unidades, o que corresponde a um aumento de 41,5% ano a ano. Os grandes provedores de nuvem estão direcionando este ano seus orçamentos para a compra de servidores de IA em detrimento da taxa de crescimento das entregas de servidores convencionais – será de apenas 1,9%. A participação dos servidores de IA nas remessas totais deverá atingir 12,5%, o que representa aproximadamente 3,4 p.p. superior ao de 2023.

Em termos de valor de mercado, os servidores de IA contribuem mais para o crescimento das receitas do que os servidores convencionais. Até o final de 2024, o valor de mercado dos servidores de IA ultrapassará US$ 187 bilhões, com uma taxa de crescimento de 69%, o que representará 65% do valor total dos servidores, prevê a TrendForce. Tanto as operadoras norte-americanas AWS e Meta✴, como os gigantes chineses Alibaba, Baidu e Huawei, estão expandindo ativamente as suas próprias soluções ASIC. Até o final de 2024, espera-se que a participação dos servidores ASIC atinja 26% do mercado total de servidores, enquanto os servidores de IA com GPUs convencionais representarão cerca de 71%.

Fonte da imagem: trendforce.com

A Nvidia manterá a maior participação, cerca de 90%, no mercado de fornecedores de chips de IA para servidores de IA; A participação de mercado da AMD será de apenas cerca de 8%. Mas se você incluir todos os chips de IA usados ​​em servidores de IA (GPUs, ASICs, FPGAs), a participação de mercado da Nvidia no ano é de cerca de 64%. A demanda por servidores avançados de IA, segundo analistas da TrendForce, permanecerá alta ao longo de 2025, especialmente considerando que o Nvidia Hopper será substituído por uma nova geração de aceleradores Blackwell AI (GB200, B100/B200). Por causa disso, a demanda por embalagens de chips TSMC CoWoS e memória HBM aumentará: no acelerador Nvidia B100, o tamanho do chip é duas vezes maior. A capacidade de produção do TSMC CoWoS atingirá 550-600 mil unidades até o final de 2025, com uma taxa de crescimento de cerca de 80%. A principal Nvidia H100 em 2024 será equipada com 80 GB HMB3; até 2025, os chips Nvidia Blackwell Ultra e AMD MI350 receberão até 288 GB de HBM3e, triplicando o consumo de componentes de memória. Espera-se que a oferta total de HBM dobre até 2025 devido à alta demanda no mercado de servidores de IA.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *