A Micron apresentou hoje o primeiro módulo de memória LPDRAM SOCAMM2 de alto desempenho do mundo, com 256 GB, projetado especificamente para data centers e cargas de trabalho de IA.
Fonte da imagem: micron.com
Este novo tipo de RAM consome três vezes menos energia e apresenta um tamanho de módulo compacto — é construído em cristais monolíticos de 32 Gb. Com uma CPU de 8 canais em um sistema com 2 TB de memória, o desempenho da carga de trabalho de inferência de IA (execução) aumenta em 2,3 vezes na métrica mais importante — tempo até o primeiro token.
O novo módulo de memória da Micron foi projetado para inferência de modelos de linguagem de grande porte e outras cargas de trabalho onde a capacidade de memória, a largura de banda, a eficiência e a latência determinam o desempenho e a escalabilidade. O formato SOCAMM2 é uma solução ideal, com módulos mais compactos e menor consumo de energia em comparação com os RDIMMs tradicionais. A Micron desenvolveu este componente em parceria com a Nvidia. Em cargas de trabalho de IA, a memória de vídeo na GPU é crucial, mas com caches KV de grande porte, parte dessa memória pode ser transferida para a memória compartilhada do sistema, mais barata, se esta for suficientemente rápida — uma capacidade oferecida pela LPDRAM SOCAMM2 da Micron.
A OpenAI está desenvolvendo uma plataforma de hospedagem de código que competirá com o GitHub,…
Antes da visita de Donald Trump à China em abril para se encontrar com Xi…
Recentemente, a Agência Espacial Europeia (ESA) e o Instituto de Optoeletrônica da Academia Chinesa de…
Na MWC 2026, a fabricante chinesa de eletrônicos Tecno e a marca italiana de artigos…
A Meta está criando uma nova divisão para desenvolver inteligência artificial aplicada — um projeto…
A empresa chinesa Xiaomi foi homenageada com um lugar na série Gran Turismo, juntando-se a…