A Huawei aprendeu a criar concorrentes para os sistemas de IA da Nvidia, mas estes são inferiores em eficiência e desempenho.

O hardware de servidor de IA da Huawei, os fornecedores locais de componentes de embalagem de chips e os parceiros de automação de design formaram a espinha dorsal de uma cadeia de suprimentos de chips focada na China. Os chips de IA Ascend da Huawei e a cadeia de suprimentos associada estão agora posicionados como a base dos esforços nacionais da China para criar um ecossistema de semicondutores independente e totalmente nacional.

Fonte da imagem: Huawei

De acordo com dados disponíveis, a Huawei investiu em mais de 60 empresas do setor de semicondutores chinês por meio de sua subsidiária Hubble. Enquanto isso, parceiros locais da Huawei, como a Empyrean, estão desenvolvendo ferramentas de design para dar suporte a um ecossistema de software de IA independente da Nvidia ou de qualquer outro fornecedor americano.

A Huawei apresentou os resultados de sua rede de fornecedores nacionais na Exposição Internacional de Alta Tecnologia de Shenzhen: o sistema de IA CloudMatrix 384, que integra 384 aceleradores Ascend 910C em racks de servidores e se posiciona como concorrente direto da plataforma GB200 da Nvidia.

Apesar de ainda apresentar algumas limitações em termos de desempenho e eficiência energética, o sistema CloudMatrix 384 demonstra o quanto a Huawei avançou desde que os EUA restringiram o acesso a tecnologias e equipamentos fabricados nos EUA em 2019. O núcleo da estratégia de servidores da Huawei é a GPU Ascend 910C, construída com memória multicamadas HBM2E e a arquitetura DaVinci NPU, otimizada para cargas de trabalho de IA. O acelerador oferece desempenho de até 780 TFLOPS em operações BF16 com um consumo de energia de 350 W.

Isso é inferior aos aceleradores de IA da Nvidia baseados nas arquiteturas Hopper (H100) e Blackwell (B200), tanto em desempenho máximo quanto em eficiência energética. No entanto, a Huawei compensa essa diferença por meio da escalabilidade.Por exemplo, o sistema CloudMatrix 384 combina 12 racks de módulos Ascend com quatro racks de interconexões ópticas, formando assim um cluster de 384 unidades.Os aceleradores de IA oferecem um desempenho de aproximadamente 300 petaflops. O sistema consome cerca de 559 quilowatts de energia em pico de carga, quase quatro vezes o consumo de um sistema Nvidia DGX baseado em aceleradores GB200.

No entanto, os data centers chineses enfrentam menos restrições regulatórias quanto ao consumo de energia. Além disso, os custos de eletricidade na China são significativamente menores do que nos EUA. Essa vantagem, aliada à grande oferta de chips produzidos internamente, torna os aceleradores Ascend uma base viável para o treinamento de modelos avançados de IA no país.

admin

Compartilhar
Publicado por
admin

Postagens recentes

O console portátil MSI Claw A8 com Ryzen Z2 Extreme chegou aos EUA e à Europa, com preço de US$ 1.149 para a versão com 24 GB de RAM.

O MSI Claw A8 é o primeiro console portátil da empresa baseado na plataforma AMD.…

4 horas atrás

A SK Hynix supera a Samsung em lucro anual pela primeira vez em meio ao boom da IA.

Historicamente, a Samsung Electronics tem sido consistentemente a maior fornecedora mundial de componentes semicondutores em…

6 horas atrás

Intel e AMD, preparem-se: a Nvidia confirmou o desenvolvimento do processador N1 para PCs em colaboração com a MediaTek.

Jensen Huang confirmou publicamente a colaboração da Nvidia com a MediaTek no desenvolvimento dos processadores…

16 horas atrás