A Micron mostrou módulos incomuns de RAM MCRDIMM de 256 GB na conferência Nvidia GTC 2024. Esses módulos de alta altura foram projetados para a nova geração de sistemas de servidores, incluindo aqueles baseados nos futuros processadores Intel Xeon Scalable Granite Rapids. A Micron disse que já começou a enviar amostras aos compradores interessados.

Fonte da imagem: Micron

Os módulos de memória MCRDIMM DDR5 de 256 GB demonstrados pelo fabricante operam a uma velocidade de 8.800 MHz. Eles são projetados para sistemas de servidor 1U. Esses módulos de memória são baseados em chips DDR5 de 32 gigabits. Em cada lado desse módulo existem 40 chips de memória. O consumo de energia de um módulo de RAM MCRDIMM DDR5-8800 de 256 GB é de cerca de 20 W, o que é relativamente pequeno, considerando que os módulos RDIMM DDR5-8000 de 128 GB lançados anteriormente pelo mesmo fabricante com o perfil DDR5-4800 padrão consomem 10 W.

DIMMs Multiplexer Combined Ranks (MCR) são um tipo de módulo RAM de classificação dupla que opera duas classificações em paralelo usando um buffer especial. Este buffer permite que as duas classificações físicas atuem como se fossem dois módulos de memória separados rodando em paralelo. Isso efetivamente duplica o desempenho de tais módulos, buscando simultaneamente 128 bytes de dados de ambas as classificações por ciclo de clock. O buffer funciona com seu controlador de memória DDR5 host, que permite que a memória opere em velocidades superiores ao padrão. Neste caso estamos falando de 8.800 MT/s.

Normalmente, módulos com duas classificações físicas funcionam como um módulo. Assim, a CPU ou controlador de memória recupera apenas 64 bytes de dados por ciclo de clock. A memória MCRDIMM duplica esse valor, aumentando significativamente a capacidade e o desempenho de cada módulo.

O fato de a Micron ter decidido mostrar seus módulos de memória MCRDIMM de 256 GB na conferência Nvidia GTC 2024 AI pode indicar que a empresa está considerando este produto como uma solução para servidores de IA de próxima geração, por exemplo, baseados em processadores Intel Xeon Scalable Granite Rapids . Os sistemas baseados neles usarão grandes quantidades de memória para treinar modelos de IA, portanto, esses módulos de RAM serão úteis. Os próprios chips Intel Xeon Scalable Granite Rapids suportarão o modo de memória de 12 canais com dois módulos por canal. Assim, com base em módulos Micron, será possível criar servidores com 3 TB de RAM ao utilizar 12 slots de memória e até 6 TB de RAM ao utilizar 24 slots de memória.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *