O alto nível de demanda por servidores AI impulsionou a demanda por High-Bandwidth Main Memory (HBM). De acordo com a TrendForce, os principais fornecedores de memória HBM em 2022 são SK hynix (50% de participação no mercado), Samsung (40% de participação no mercado) e Micron (10% de participação no mercado). Os analistas acreditam que até o final deste ano, o SK hynix sul-coreano ocupará mais da metade do mercado global de HBM.
Fonte da imagem: SK hynix
A produção dos aceleradores de servidor NVIDIA H100 e AMD MI300 com memória HBM3 começará no segundo semestre de 2023. Atualmente, apenas a SK hynix iniciou a produção em massa desse tipo de memória. Analistas acreditam que até o final do ano isso ajudará a fabricante sul-coreana a aumentar sua participação de mercado para 53%. Espera-se que a Samsung e a Micron lancem a memória HBM3 ainda este ano ou no início do ano que vem. Segundo previsões de analistas, a participação dessas empresas no mercado até o final do ano será de 38% e 9%, respectivamente.
Os analistas da TrendForce preveem que as remessas de servidores AI aumentarão 15,4% em 2023. Além disso, entre 2023 e 2027, prevê-se um crescimento anual de 12,2% nas remessas de servidores de IA. Isso será facilitado pelo lançamento de serviços baseados em redes neurais generativas. Espera-se que a demanda por servidores de IA seja suportada pelos principais provedores de serviços em nuvem, como Google, Amazon, Meta* e Microsoft, bem como gigantes de TI que desenvolvem serviços de IA, como Microsoft, Meta*, Baidu, ByteDance e outros
Fonte da imagem: TrendForce
A TrendForce observa que a crescente demanda por servidores AI está impulsionando as vendas de DRAM, SSD e memória de servidor HBM. Embora os servidores de uso geral normalmente tenham de 500 a 600 GB de DRAM, os servidores de IA exigem muito mais, com média de 1,2 a 1,7 TB de DRAM. Para SSDs de nível empresarial, DRAM e HBM ainda são priorizados, mas até agora não houve um impulso significativo em termos de capacidade de SSD. Do ponto de vista da interface, o PCIe 5.0 é a escolha preferida quando se trata de atender às necessidades de computação de alto desempenho. À medida que os servidores de IA se tornam mais complexos, a demanda por DRAM, SSD e memória de servidor HBM continuará a crescer.
* Insere-se no rol de associações públicas e entidades religiosas sobre as quais haja decisão judicial transitada em julgado para extinguir ou proibir atividades com base na Lei Federal nº 114-FZ, de 25 de julho de 2002 “Sobre o combate à atividade extremista”.
Mais de 120 milhões de computadores no mundo todo estarão executando o Windows 10 após…
A editora Ubisoft e os desenvolvedores do estúdio francês Ubisoft Montpellier compartilharam informações sobre os…
Em fevereiro deste ano, a Mozilla prometeu fornecer suporte ao navegador Firefox para versões mais…
A Adobe Systems lançará seu editor de vídeo Adobe Premiere para iPhone ainda este mês.…
A Huawei lançou os fones de ouvido sem fio FreeBuds 7i, com preços acessíveis. O…
A TCL vem lançando smartphones com suas telas exclusivas Nxtpaper há anos, oferecendo um "modo…