A Micron anunciou um progresso significativo em sua arquitetura HBM4: chips 12-Hi que combinam 12 chips para fornecer 36 GB de capacidade por chip. A empresa planeja enviar as primeiras amostras de engenharia desses componentes de memória para parceiros importantes nas próximas semanas, com início da produção em larga escala previsto para o início de 2026.

Fonte da imagem: micron.com

Os novos chips HBM4 utilizam a consagrada tecnologia de blocos DRAM 1β, em uso desde 2022, e farão a transição para 1γ baseado em EUV para DDR5 ainda este ano. Ao aumentar a largura da interface de 1024 para 2048 bits, a Micron atingiu 2 TB/s de taxa de transferência por chip, 20% a mais que o padrão HBM3E.

Espera-se que a Nvidia e a AMD sejam as primeiras clientes dos chips HBM4 da Micron. A Nvidia planeja integrar os módulos de memória aos aceleradores de IA Rubin-Vera no segundo semestre de 2026. A AMD usará memória HBM4 nos aceleradores Instinct MI400; a empresa compartilhará mais detalhes em sua conferência Advancing AI 2025.

A capacidade e a largura de banda aumentadas do HBM4 atendem às crescentes demandas de IA generativa, computação de alto desempenho e outros sistemas com uso intensivo de dados. A altura aumentada da pilha e a interface mais ampla permitirão uma troca de dados mais eficiente, o que é importante em configurações com vários chips. A Micron ainda precisa confirmar se a nova memória oferece desempenho térmico adequado e realizar testes em condições reais para determinar a adequação do HBM4 às cargas de trabalho de IA mais exigentes.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *