A Micron iniciou a produção em massa de chips HBM3E de 24 GB para aceleradores NVIDIA H200 AI

A Micron anunciou o início da produção em massa de memória de alto desempenho HBM3E no formato de pilhas de 8 níveis com capacidade de 24 GB. Esses chips serão usados ​​​​como parte de aceleradores especializados NVIDIA H200 AI, cujas entregas em massa começarão no segundo trimestre de 2024.

Fonte da imagem: Microsoft

A Micron afirma que a crescente demanda por computação de IA requer novas soluções de memória de alto desempenho. Os novos ICs HBM3E da Micron atendem totalmente a esses requisitos.

Para suas pilhas de memória HBM3E de 8 camadas e 24 GB, a Micron afirma velocidades de transferência de dados de 9,2 Gbps por pino e mais de 1,2 TB/s de largura de banda. De acordo com a Micron, seus chips de memória HBM3E são até 30% mais eficientes em termos energéticos do que soluções similares de outros fabricantes.

A empresa também observa que a grande capacidade de 24 GB de chips de memória HBM3E permite que os data centers escalem perfeitamente suas cargas de trabalho de IA, seja treinando redes neurais massivas ou acelerando a inferência.

A Micron produz chips de memória HBM3E usando sua tecnologia de processo 1β (1-beta) líder do setor, bem como tecnologia avançada TSV (Through-silicon via) e outras soluções inovadoras de empacotamento de chips. A Micron produzirá seus chips de memória HBM3E nas instalações da TSMC.

A fabricante também anunciou que em março deste ano começará a enviar imagens para fabricantes de chips avançados de memória HBM3E de 12 camadas com capacidade de 36 GB, que fornecerão largura de banda acima de 1,2 TB/s.

avalanche

Postagens recentes

A Arm decepcionou os investidores com uma queda na receita de smartphones.

No cenário atual, o boom da IA ​​está impactando os negócios de algumas empresas tanto…

2 horas atrás

A TSMC iniciará a produção de chips de 3nm no Japão, e as autoridades do país prometem aumentar os subsídios.

Até recentemente, acreditava-se que a produção de chips de 2 nm no Japão seria feita…

3 horas atrás

A OpenAI criticou a Anthropic por deturpar a monetização do ChatGPT.

O CEO da OpenAI, Sam Altman, criticou o anúncio da Anthropic após assisti-lo. Em sua…

3 horas atrás

A Amazon utilizará inteligência artificial para acelerar e reduzir o custo da produção cinematográfica.

A Amazon planeja usar inteligência artificial (IA) na produção cinematográfica para reduzir o tempo de…

4 horas atrás

Em meio à alta dos preços, a Qualcomm decepcionou os investidores com sua previsão de receita.

Muitos analistas já são unânimes há tempos em afirmar que o mercado de smartphones sofrerá…

5 horas atrás