A Micron apresentou hoje o primeiro módulo de memória LPDRAM SOCAMM2 de alto desempenho do mundo, com 256 GB, projetado especificamente para data centers e cargas de trabalho de IA.
Fonte da imagem: micron.com
Este novo tipo de RAM consome três vezes menos energia e apresenta um tamanho de módulo compacto — é construído em cristais monolíticos de 32 Gb. Com uma CPU de 8 canais em um sistema com 2 TB de memória, o desempenho da carga de trabalho de inferência de IA (execução) aumenta em 2,3 vezes na métrica mais importante — tempo até o primeiro token.
O novo módulo de memória da Micron foi projetado para inferência de modelos de linguagem de grande porte e outras cargas de trabalho onde a capacidade de memória, a largura de banda, a eficiência e a latência determinam o desempenho e a escalabilidade. O formato SOCAMM2 é uma solução ideal, com módulos mais compactos e menor consumo de energia em comparação com os RDIMMs tradicionais. A Micron desenvolveu este componente em parceria com a Nvidia. Em cargas de trabalho de IA, a memória de vídeo na GPU é crucial, mas com caches KV de grande porte, parte dessa memória pode ser transferida para a memória compartilhada do sistema, mais barata, se esta for suficientemente rápida — uma capacidade oferecida pela LPDRAM SOCAMM2 da Micron.
No final de janeiro, foi anunciado que a SpaceX, empresa aeroespacial de Elon Musk, programaria…
Segundo Mark Gurman, da Bloomberg, a Apple planeja lançar o primeiro aplicativo Siri independente como…
A OpenAI decidiu inesperadamente encerrar seu aplicativo de criação de vídeos com inteligência artificial, o…
As LPUs da Groq são fundamentalmente diferentes dos aceleradores de IA da NVIDIA, mas são…
A Razer apresentou o mouse gamer sem fio Viper V4 Pro. O novo mouse conta…
Pela primeira vez no mundo, a cerveja foi carbonatada com dióxido de carbono (CO₂) capturado…