O governo chinês não se limita a recomendar o uso de aceleradores desenvolvidos localmente para empresas que criam sistemas de inteligência artificial. Para data centers apoiados de alguma forma por agências governamentais, o padrão foi estabelecido para o uso de pelo menos 50% de aceleradores de desenvolvimento chinês.

Fonte da imagem: NVIDIA

Conforme observado pelo South China Morning Post, essa exigência foi estabelecida pelas autoridades municipais de Xangai em março do ano passado para a estrutura de capacidades de computação criadas com recursos públicos. Até este ano, a participação de aceleradoras de computação de origem chinesa em sua estrutura deveria ultrapassar 50%. A iniciativa recebeu amplo apoio de órgãos governamentais chineses do mais alto nível. Este ano, exigências semelhantes foram estendidas a todos os data centers criados na China com participação estatal.

Mais de 500 data centers estão planejados para serem construídos na China entre 2023 e 2024, e muitos desses projetos estão sendo implementados com o apoio de governos em diferentes níveis administrativos. Aceleradores chineses, como demonstra a prática, são perfeitamente capazes de trabalhar com modelos de linguagem prontos, mas aceleradores estrangeiros, como os produzidos pela Nvidia, ainda são mais eficazes para o treinamento destes últimos. Entre as empresas privadas chinesas, não há muitas dispostas a usar aceleradores chineses para o treinamento de modelos de linguagem. Nesse sentido, uma das poucas exceções é a iFlytek, mas ela está privada de acesso legal aos chips da Nvidia devido a sanções específicas dos EUA.

Combinar soluções da Nvidia com fornecedores chineses locais, como a Huawei, em uma única infraestrutura apresenta certa dificuldade devido às diferenças nas plataformas de software. Coordenar o trabalho de sistemas tão “díspares” exige muito tempo e dinheiro, por isso os desenvolvedores tentam manter uma base de hardware uniforme. Ao mesmo tempo, na China, há exemplos bem-sucedidos de adaptação de sistemas de computação Huawei Cloud Matrix 384 baseados em chips Ascend para trabalhar com o modelo de linguagem DeepSeek R1. Após isso, a eficiência do sistema mostrou-se superior à dos aceleradores Nvidia H800.

admin

Postagens recentes

A Meta está pronta para distribuir US$ 2 milhões em subsídios para apoiar empresas e startups que utilizam seus óculos inteligentes.

O surgimento de uma nova categoria de dispositivos no mercado nem sempre é acompanhado por…

20 minutos atrás

As ações da Intel atingem o maior valor em quatro anos, mesmo antes da divulgação do relatório trimestral.

A Intel Corporation divulgará seus relatórios trimestrais e anuais ainda esta semana, mas fatores geopolíticos…

59 minutos atrás

O CEO da OpenAI está buscando um investimento de US$ 50 bilhões de investidores do Oriente Médio.

De uma perspectiva clássica de análise financeira, os indicadores de desempenho da OpenAI atualmente parecem…

2 horas atrás

A Anthropic revelou uma versão modificada da “constituição” de seu chatbot Claude.

A Anthropic tem se empenhado em comunicar sua missão e seus recursos exclusivos, como o…

2 horas atrás

A Apple mudou seus planos e transformará a Siri em um chatbot completo – como o ChatGPT.

A Apple transformará sua assistente de voz Siri em um chatbot semelhante ao ChatGPT e…

3 horas atrás

A OpenAI só deverá dar lucro em 2029, após um prejuízo de 44 bilhões de dólares.

A OpenAI prevê prejuízos de US$ 14 bilhões em 2026, mas espera atingir uma receita…

3 horas atrás