O alto nível de demanda por servidores AI impulsionou a demanda por High-Bandwidth Main Memory (HBM). De acordo com a TrendForce, os principais fornecedores de memória HBM em 2022 são SK hynix (50% de participação no mercado), Samsung (40% de participação no mercado) e Micron (10% de participação no mercado). Os analistas acreditam que até o final deste ano, o SK hynix sul-coreano ocupará mais da metade do mercado global de HBM.

Fonte da imagem: SK hynix

A produção dos aceleradores de servidor NVIDIA H100 e AMD MI300 com memória HBM3 começará no segundo semestre de 2023. Atualmente, apenas a SK hynix iniciou a produção em massa desse tipo de memória. Analistas acreditam que até o final do ano isso ajudará a fabricante sul-coreana a aumentar sua participação de mercado para 53%. Espera-se que a Samsung e a Micron lancem a memória HBM3 ainda este ano ou no início do ano que vem. Segundo previsões de analistas, a participação dessas empresas no mercado até o final do ano será de 38% e 9%, respectivamente.

Os analistas da TrendForce preveem que as remessas de servidores AI aumentarão 15,4% em 2023. Além disso, entre 2023 e 2027, prevê-se um crescimento anual de 12,2% nas remessas de servidores de IA. Isso será facilitado pelo lançamento de serviços baseados em redes neurais generativas. Espera-se que a demanda por servidores de IA seja suportada pelos principais provedores de serviços em nuvem, como Google, Amazon, Meta* e Microsoft, bem como gigantes de TI que desenvolvem serviços de IA, como Microsoft, Meta*, Baidu, ByteDance e outros

Fonte da imagem: TrendForce

A TrendForce observa que a crescente demanda por servidores AI está impulsionando as vendas de DRAM, SSD e memória de servidor HBM. Embora os servidores de uso geral normalmente tenham de 500 a 600 GB de DRAM, os servidores de IA exigem muito mais, com média de 1,2 a 1,7 TB de DRAM. Para SSDs de nível empresarial, DRAM e HBM ainda são priorizados, mas até agora não houve um impulso significativo em termos de capacidade de SSD. Do ponto de vista da interface, o PCIe 5.0 é a escolha preferida quando se trata de atender às necessidades de computação de alto desempenho. À medida que os servidores de IA se tornam mais complexos, a demanda por DRAM, SSD e memória de servidor HBM continuará a crescer.

* Insere-se no rol de associações públicas e entidades religiosas sobre as quais haja decisão judicial transitada em julgado para extinguir ou proibir atividades com base na Lei Federal nº 114-FZ, de 25 de julho de 2002 “Sobre o combate à atividade extremista”.

avalanche

Postagens recentes

Os desenvolvedores estão usando ativamente IA na criação de jogos

As empresas de desenvolvimento de jogos estão usando cada vez mais tecnologias de inteligência artificial…

16 minutos atrás

Renault admite que precisa se ajustar à política de preços da Tesla

Antes de a Tesla se levantar, o carro elétrico mais popular do mundo era o…

25 minutos atrás

SpaceX lançou modelos em escala de Starship – um deles é capaz de expelir chamas

A SpaceX revelou dois novos produtos na forma de sua maior espaçonave, a Starship, que…

26 minutos atrás

“Toda vez que você se supera”: os autores de Myst confirmaram data de lançamento da aventura steampunk Firmamento em um novo trailer

Os desenvolvedores do estúdio Cyan Worlds publicaram um novo trailer da aventura steampunk Firmament, confirmaram…

31 minutos atrás

Netflix contrata veterano de Halo para trabalhar em novo jogo multiplataforma AAA

No início de abril, o veterano da série Halo e diretor criativo da Halo Infinite…

46 minutos atrás