Até agora, o único fornecedor de chips HBM3 para as necessidades da NVIDIA era a empresa sul-coreana SK hynix, mas no caso do HBM3e, a rival Micron Technology começou a fornecer à NVIDIA amostras de seus produtos no final de julho, então a luta pelo mercado neste segmento de memória será feroz. Até 2026, a memória do tipo HBM4 estará pronta para entrar no mercado, que um ano depois aumentará o número de camadas de 12 para 16 peças.

Fonte da imagem: SK Hynix

O futuro imediato na evolução da memória HBM3e, como explica TrendForce, é o lançamento de chips de 8 camadas, que até o primeiro trimestre do próximo ano devem passar pela certificação da NVIDIA e de outros clientes, para então entrar na fase de produção em massa. A Micron Technology está um pouco à frente da SK Hynix nesta área, tendo fornecido suas amostras para teste algumas semanas antes, mas a Samsung só conseguiu fazer isso no início de outubro. A memória HBM3e é capaz de fornecer velocidades de transferência de informações de 8 a 9,2 Gbit/s; chips de 24 GB de oito camadas serão produzidos usando processos tecnológicos de classe 1-alfa (Samsung) ou 1-beta (SK hynix e Micron). Todas as três empresas estabelecerão a sua produção em massa em meados do próximo ano, mas as duas últimas esperam fazê-lo no início do segundo trimestre.

De muitas maneiras, esse cronograma determinará o ritmo de lançamento dos novos aceleradores de computação NVIDIA. No próximo ano, a empresa começará a fornecer aceleradores H200 com seis chips HBM3e e, até o final do mesmo ano, serão lançados aceleradores B100 com oito chips HBM3e. Ao longo do caminho, serão lançadas soluções híbridas com processadores centrais com arquitetura compatível com Arm, denominadas GH200 e GB200.

Fonte da imagem: TrendForce

A empresa concorrente AMD, de acordo com a TrendForce, se concentrará no uso de memória HBM3 na família de aceleradores Instinct MI300 em 2024 e salvará a transição para HBM3e para o Instinct MI350 posterior. Os testes de compatibilidade de memória, neste caso, começarão no segundo semestre de 2024, e as entregas reais de chips HBM3e para a AMD não começarão antes do primeiro trimestre de 2025.

Os aceleradores Intel Habana Gaudi 2, lançados no segundo semestre do ano passado, estão limitados a usar seis pilhas HBM2e; os sucessores da série Gaudi 3 aumentarão o número de pilhas para 8 até meados do próximo ano, mas permanecerão fiéis a o uso de chips HBM2e.

A memória do tipo HBM4 será lançada apenas em 2026, utilizará um substrato de 12 nm, que será fabricado por fabricantes terceirizados. O número de camadas em uma pilha de memória variará entre 12 e 16 peças, e o último tipo de chips não aparecerá no mercado antes de 2027. No entanto, a Samsung Electronics está demonstrando suas intenções de apresentar o HBM4 já em 2025, recuperando o tempo perdido em comparação com as gerações anteriores de chips de memória desta classe.

Nos próximos anos, também surgirá uma tendência de individualização do design de soluções utilizando memória HBM. Em particular, alguns desenvolvedores estão considerando a possibilidade de integrar esses chips de memória diretamente em chips com núcleos de computação. Pelo menos, tais intenções já foram atribuídas à NVIDIA, e especificamente em relação a chips como o HBM4.

avalanche

Postagens recentes

Os japoneses criaram uma memória magnética usando efeitos quânticos – ela é 25 vezes mais rápida que a DRAM, quase não esquenta e não se desgasta.

Cientistas da Universidade de Tóquio, em conjunto com colegas do Centro RIKEN CEMS, apresentaram um…

51 minutos atrás

A Thermal Grizzly está vendendo placas Core Ultra 7 270K Plus revendidas por US$ 525.

A Thermal Grizzly começou a vender processadores Intel Core Ultra 7 270K Plus revendidos. Esses…

51 minutos atrás

Asus e T1 lançam placas GeForce RTX de edição limitada para fãs de League of Legends.

A Asus, em colaboração com a equipe sul-coreana de esports de League of Legends, T1…

51 minutos atrás

Estudo: 9 em cada 10 dicas financeiras de blogueiros foram consideradas ruins – mas as pessoas ainda ficaram satisfeitas.

Segundo um estudo realizado no Reino Unido, os conselhos de influenciadores financeiros nas redes sociais…

7 horas atrás

Agora você pode programar em qualquer lugar: o ChatGPT para smartphones agora tem o Codex.

A OpenAI aprimorou o aplicativo móvel ChatGPT para desenvolvedores que trabalham em qualquer lugar, adicionando…

7 horas atrás

A Samsung iniciou cortes emergenciais na produção em antecipação a uma greve em massa.

A Samsung Electronics está se preparando para uma greve geral de 18 dias, planejada pelos…

7 horas atrás