Alguns desenvolvedores chineses de IA são simplesmente forçados a depender de componentes nacionais para desenvolver sua infraestrutura de hardware, pois estão sob sanções dos EUA. Eles alegam que os aceleradores de computação chineses aumentam o tempo de criação de modelos de IA em 3 meses em comparação com os americanos.

Fonte da imagem: Huawei Technologies

Comentários semelhantes foram compartilhados no WeChat pelo fundador e CEO da iFlytek, uma desenvolvedora chinesa de sistemas de reconhecimento de voz que está sob sanções dos EUA desde outubro de 2019. Este é um período longo o suficiente para entender completamente como se pode viver sem acesso às soluções mais recentes de origem americana e o que isso significa para os negócios. O presidente do Conselho de Administração da iFlytek, Liu Qingfeng, descreveu sua empresa como quase a única desenvolvedora chinesa de modelos de IA que insiste conscientemente em usar apenas chips de fabricação chinesa. Isso é feito para eliminar o risco de perda de acesso a produtos estrangeiros.

Ao mesmo tempo, observa-se certo progresso na eficiência dos aceleradores chineses Huawei Ascend 910B. Se no final do ano passado eles eram quatro vezes inferiores ao Nvidia A800, agora, em termos de desempenho no treinamento de modelos de linguagem de grande porte, estão apenas 27% atrás deste produto da empresa americana. O fundador da Huawei, Ren Zhengfei, admitiu recentemente que os chips Ascend estão uma geração atrás de seus concorrentes americanos, mas isso pode ser compensado pela combinação de nós de computação em clusters bem escaláveis.

O chefe da iFlytek enfatiza que sua empresa continua sendo a única desenvolvedora chinesa a fazer campanha ativamente pela transição para aceleradores de computação chineses. O modelo de linguagem X1 com 70 bilhões de parâmetros, que funciona exclusivamente com eles, demonstra desempenho no nível do DeepSeek R1 e do OpenAI o1. Além disso, a iFlytek pretende desenvolver de forma independente um modelo de linguagem de raciocínio treinado exclusivamente em aceleradores chineses. Em média, o uso desses aceleradores em vez de soluções da Nvidia aumenta o tempo de treinamento do modelo de linguagem em três meses, mas isso não incomoda a iFlytek.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *