O alto nível de demanda por servidores AI impulsionou a demanda por High-Bandwidth Main Memory (HBM). De acordo com a TrendForce, os principais fornecedores de memória HBM em 2022 são SK hynix (50% de participação no mercado), Samsung (40% de participação no mercado) e Micron (10% de participação no mercado). Os analistas acreditam que até o final deste ano, o SK hynix sul-coreano ocupará mais da metade do mercado global de HBM.

Fonte da imagem: SK hynix

A produção dos aceleradores de servidor NVIDIA H100 e AMD MI300 com memória HBM3 começará no segundo semestre de 2023. Atualmente, apenas a SK hynix iniciou a produção em massa desse tipo de memória. Analistas acreditam que até o final do ano isso ajudará a fabricante sul-coreana a aumentar sua participação de mercado para 53%. Espera-se que a Samsung e a Micron lancem a memória HBM3 ainda este ano ou no início do ano que vem. Segundo previsões de analistas, a participação dessas empresas no mercado até o final do ano será de 38% e 9%, respectivamente.

Os analistas da TrendForce preveem que as remessas de servidores AI aumentarão 15,4% em 2023. Além disso, entre 2023 e 2027, prevê-se um crescimento anual de 12,2% nas remessas de servidores de IA. Isso será facilitado pelo lançamento de serviços baseados em redes neurais generativas. Espera-se que a demanda por servidores de IA seja suportada pelos principais provedores de serviços em nuvem, como Google, Amazon, Meta* e Microsoft, bem como gigantes de TI que desenvolvem serviços de IA, como Microsoft, Meta*, Baidu, ByteDance e outros

Fonte da imagem: TrendForce

A TrendForce observa que a crescente demanda por servidores AI está impulsionando as vendas de DRAM, SSD e memória de servidor HBM. Embora os servidores de uso geral normalmente tenham de 500 a 600 GB de DRAM, os servidores de IA exigem muito mais, com média de 1,2 a 1,7 TB de DRAM. Para SSDs de nível empresarial, DRAM e HBM ainda são priorizados, mas até agora não houve um impulso significativo em termos de capacidade de SSD. Do ponto de vista da interface, o PCIe 5.0 é a escolha preferida quando se trata de atender às necessidades de computação de alto desempenho. À medida que os servidores de IA se tornam mais complexos, a demanda por DRAM, SSD e memória de servidor HBM continuará a crescer.

* Insere-se no rol de associações públicas e entidades religiosas sobre as quais haja decisão judicial transitada em julgado para extinguir ou proibir atividades com base na Lei Federal nº 114-FZ, de 25 de julho de 2002 “Sobre o combate à atividade extremista”.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *