A primeira amostra do acelerador AMD Instinct MI300X com memória HBM3E de 12 camadas foi vista no MWC 2024

A AMD está preparando novas modificações na família de aceleradores Instinct MI300, que visam processar aplicativos de IA com uso intensivo de recursos. Os produtos serão equipados com memória HBM3E de alto desempenho. O trabalho neles foi confirmado pelo diretor técnico da AMD, Mark Papermaster, e já esta semana uma amostra do acelerador atualizado foi vista no estande da empresa no MWC 2024.

Hoje, a família Instinct MI300 inclui as modificações MI300A e MI300X. O primeiro possui 228 unidades computacionais CDNA3 e 24 núcleos Zen4 na arquitetura x86. O equipamento inclui 128 GB de memória HBM3. O acelerador MI300X, equipado com 304 blocos CDNA3 e 192 GB HBM3, é voltado para cálculos mais intensivos. Mas esta solução não possui núcleos Zen4.

A Micron anunciou recentemente o início da produção em massa de memória HBM3E de 8 camadas com capacidade de 24 GB e largura de banda superior a 1200 GB/s. Esses chips serão usados ​​nos aceleradores NVIDIA H200 AI, que chegarão ao mercado comercial no segundo trimestre deste ano. E a Samsung está se preparando para fornecer chips HBM3E de 36 GB de 12 camadas com velocidades de transferência de dados de até 1280 GB/s.

A AMD confirmou sua intenção de usar memória HBM3E nos aceleradores Instinct MI300 atualizados, mas não entrou em detalhes. Ao usar chips HBM3E de 12 camadas com capacidade de 36 GB, um conjunto de oito módulos fornecerá até 288 GB de memória de alta largura de banda. O adesivo na amostra de demonstração indica claramente o uso de memória de 12 camadas. Porém, isso pode realmente ser apenas um adesivo, já que o representante da AMD evitou responder diretamente à pergunta sobre as especificações do produto apresentado.

A AMD também deverá lançar aceleradores de IA de próxima geração, a série Instinct MI400, em 2025. Enquanto isso, a NVIDIA está preparando aceleradores da família Blackwell para tarefas de IA: esses produtos, segundo a própria empresa, estarão em falta imediatamente após entrarem no mercado.

avalanche

Postagens recentes

O YouTube liberou a reprodução em segundo plano para usuários do Android e iOS em todo o mundo, mas com limitações.

O YouTube disponibilizou o modo Picture-in-Picture para usuários sem assinatura Premium no Android e iOS.…

32 minutos atrás

O Google Fotos contará com um aplicativo de guarda-roupa que permitirá experimentar virtualmente suas próprias roupas.

O aplicativo Google Fotos lançou um novo recurso com inteligência artificial: a experimentação virtual de…

32 minutos atrás

À medida que a tecnologia de processo amadurece, a Samsung aumentou seu rendimento de chips de 4nm para mais de 80%.

A Samsung anunciou ter alcançado um rendimento de 80% na produção de componentes semicondutores utilizando…

32 minutos atrás

A Apple desenvolveu uma IA que considera várias opções de resposta em paralelo e produz a melhor delas.

Pesquisadores da Apple, em conjunto com cientistas da Universidade da Califórnia, em San Diego, desenvolveram…

50 minutos atrás

A Microsoft aumentou sua receita e lucro, mas as despesas também aumentaram – a IA “devorará” US$ 190 bilhões em um ano.

A Microsoft divulgou seus resultados financeiros do último trimestre: os principais indicadores da empresa mostraram…

50 minutos atrás

A computação em nuvem impulsiona os lucros da Alphabet — os investimentos em IA aumentam para US$ 190 bilhões e mais estão por vir.

A Alphabet Holdings divulgou seus resultados financeiros do último trimestre, segundo os quais o rápido…

50 minutos atrás