A Micron mostrou módulos incomuns de RAM MCRDIMM de 256 GB na conferência Nvidia GTC 2024. Esses módulos de alta altura foram projetados para a nova geração de sistemas de servidores, incluindo aqueles baseados nos futuros processadores Intel Xeon Scalable Granite Rapids. A Micron disse que já começou a enviar amostras aos compradores interessados.

Fonte da imagem: Micron

Os módulos de memória MCRDIMM DDR5 de 256 GB demonstrados pelo fabricante operam a uma velocidade de 8.800 MHz. Eles são projetados para sistemas de servidor 1U. Esses módulos de memória são baseados em chips DDR5 de 32 gigabits. Em cada lado desse módulo existem 40 chips de memória. O consumo de energia de um módulo de RAM MCRDIMM DDR5-8800 de 256 GB é de cerca de 20 W, o que é relativamente pequeno, considerando que os módulos RDIMM DDR5-8000 de 128 GB lançados anteriormente pelo mesmo fabricante com o perfil DDR5-4800 padrão consomem 10 W.

DIMMs Multiplexer Combined Ranks (MCR) são um tipo de módulo RAM de classificação dupla que opera duas classificações em paralelo usando um buffer especial. Este buffer permite que as duas classificações físicas atuem como se fossem dois módulos de memória separados rodando em paralelo. Isso efetivamente duplica o desempenho de tais módulos, buscando simultaneamente 128 bytes de dados de ambas as classificações por ciclo de clock. O buffer funciona com seu controlador de memória DDR5 host, que permite que a memória opere em velocidades superiores ao padrão. Neste caso estamos falando de 8.800 MT/s.

Normalmente, módulos com duas classificações físicas funcionam como um módulo. Assim, a CPU ou controlador de memória recupera apenas 64 bytes de dados por ciclo de clock. A memória MCRDIMM duplica esse valor, aumentando significativamente a capacidade e o desempenho de cada módulo.

O fato de a Micron ter decidido mostrar seus módulos de memória MCRDIMM de 256 GB na conferência Nvidia GTC 2024 AI pode indicar que a empresa está considerando este produto como uma solução para servidores de IA de próxima geração, por exemplo, baseados em processadores Intel Xeon Scalable Granite Rapids . Os sistemas baseados neles usarão grandes quantidades de memória para treinar modelos de IA, portanto, esses módulos de RAM serão úteis. Os próprios chips Intel Xeon Scalable Granite Rapids suportarão o modo de memória de 12 canais com dois módulos por canal. Assim, com base em módulos Micron, será possível criar servidores com 3 TB de RAM ao utilizar 12 slots de memória e até 6 TB de RAM ao utilizar 24 slots de memória.

avalanche

Postagens recentes

Uma fonte interna decepcionou os fãs que esperavam ver Ada Wong e Chris Redfield em Resident Evil Requiem.

O lançamento do ambicioso jogo de terror Resident Evil Requiem marcará o grande retorno do…

4 horas atrás

O Samsung Galaxy S26 Ultra com caneta stylus aparece em imagem de pré-anúncio.

No final de janeiro, foi noticiado que os smartphones da série Samsung Galaxy S26 provavelmente…

6 horas atrás

“Vivo e bem”: Um analista de dados revelou o que está acontecendo com Half-Life 3.

O minerador de dados Maxim Poletaev (também conhecido como Gabe Follower) comentou recentemente sobre rumores…

6 horas atrás

A Ford manteve conversas com a Xiaomi sobre a produção de veículos elétricos nos EUA.

A Ford Motor, uma das maiores montadoras americanas, inicialmente se comprometeu com uma estreita cooperação…

7 horas atrás

A CATL apresentou baterias para veículos elétricos com autonomia de até 1,8 milhão de km e carregamento rápido.

Os longos tempos de carregamento são considerados uma das desvantagens operacionais dos veículos elétricos, mas…

7 horas atrás