Este ano, a Nvidia lançará uma família de aceleradores computacionais Blackwell de última geração, que incluirá soluções apenas com GPUs, como o B100 e B200, e soluções que combinam uma GPU e um processador central Arm de design próprio, o Blackwell GB200. . O lançamento de novos chips Nvidia aumentará significativamente a demanda por embalagens de chips usando a avançada tecnologia TSMC CoWoS, estão confiantes os analistas da TrendForce.

Fonte da imagem: nvidia.com

Embora os aceleradores GH200 representassem apenas 5% das remessas de GPU de alto desempenho da Nvidia, com o GB200 esse número aumentará para 40-50% até 2025. A Nvidia planeja lançar o GB200 e o B100 no segundo semestre do ano, e o empacotamento dos chips exigirá tecnologia CoWoS-L complexa e de alta precisão, o que tornará o processo de teste trabalhoso. Será necessário mais tempo para otimizar a série Blackwell para sistemas de servidores de IA em áreas como conectividade de rede e desempenho de refrigeração. Espera-se que a produção dos produtos GB200 e B100 comece em volumes significativos não antes do quarto trimestre de 2024 ou do primeiro trimestre de 2025.

O lançamento dos aceleradores GB200, B100 e B200 exigirá um aumento na capacidade das linhas de embalagem de chips CoWoS. A expectativa é que a TSMC aumente sua produtividade para quase 40 mil chips por mês até o final do ano – um aumento de 150% em relação ao ano passado. Até 2025, a capacidade total planeada poderá quase duplicar, prevendo-se que a procura da Nvidia represente mais de metade dessa capacidade. Outros fornecedores, como Amkor e Intel, estão atualmente se concentrando na tecnologia CoWoS-S, visando principalmente a série H da Nvidia.

Fonte da imagem: trendforce.com

Os analistas da TrendForce também identificaram três tendências principais no desenvolvimento de memória HBM para produtos Nvidia e AMD após 2024. Primeiro, espera-se uma transição do HBM3 para o HBM3e. No segundo semestre de 2024, a Nvidia começará a aumentar as remessas de aceleradores H200 equipados com HBM3e, que substituirá o H100 como seu principal produto. Seguirão os modelos GB200 e B100 também com HBM3e. Até o final do ano, a AMD lançará um novo acelerador MI350, que poderá ser precedido por modelos intermediários, como o MI32x, voltados para competir com o H200 – todos receberão HBM3e.

Em segundo lugar, a capacidade da HBM aumentará. Hoje, os aceleradores Nvidia H100 com 80 GB de memória são usados ​​​​principalmente – no final de 2024 serão 192–288 GB. O acelerador AMD MI300A recebeu 128 GB de memória, mas os “vermelhos” também aumentarão a capacidade para 288 GB. Em terceiro lugar, a memória HBM3e mudará sua configuração de pilhas 8Hi (8 chips DRAM empilhados uns sobre os outros) para 12Hi. O B100 e o GB200 da Nvidia apresentam atualmente um HBM3e 8Hi de 192 GB, enquanto o B200 contará com um HBM3e 12Hi de 288 GB em 2025. O acelerador AMD MI350, que chegará até o final deste ano, e a série MI375 prevista para 2025, deverão receber o HBM3e 12Hi, também com capacidade de 288 GB.

avalanche

Postagens recentes

Nvidia concluiu a aquisição da startup de IA Run:ai por US$ 700 milhões

A Nvidia concluiu a aquisição da startup de IA Run:ai por US$ 700 milhões, logo…

59 minutos atrás

A Intel começou a aceitar pedidos de chips Arrow Lake não anunciados antes do anúncio oficial

A Intel está se preparando para apresentar os processadores Arrow Lake para desktop de 65…

59 minutos atrás

Protótipos do trem elétrico mais rápido do mundo apresentados na China

No fim de semana passado, um protótipo do trem elétrico de alta velocidade CR450 foi…

1 hora atrás

RAM ficará mais barata no início de 2025

Os preços da memória DRAM convencional diminuirão de 8 a 13% e, levando em consideração…

2 horas atrás

Entusiastas rodaram o moderno modelo de IA Llama em um PC antigo com Pentium II e Windows 98

Especialistas do EXO Labs conseguiram executar um Llama de modelo de linguagem grande (LLM) bastante…

2 horas atrás