A escassez de poder computacional inerente ao mercado de IA em desenvolvimento dinâmico na China é agravada pelas restrições à importação de aceleradores especializados. Os desenvolvedores são forçados a otimizar, e o Alibaba encontrou uma maneira de reduzir em 82% o número de aceleradores Nvidia necessários para executar seus modelos de linguagem.

Fonte da imagem: Nvidia

Como explica o South China Morning Post, os testes beta do sistema Aegaeon já estão em andamento em uma das divisões da Alibaba Cloud há mais de três meses. A Alibaba apresentou o sistema no evento SOSP na capital sul-coreana, alegando que o sistema reduziu o número de aceleradores Nvidia H20 que atendem a dezenas de modelos de linguagem de 1.192 para 213. Os modelos de linguagem correspondentes, explica a fonte, usam até 72 milhões de parâmetros.

Representantes da Alibaba colaboraram com pesquisadores da Universidade de Pequim no desenvolvimento deste sistema, chamando-o de “a primeira tentativa de identificar os custos desnecessários associados ao atendimento simultâneo de cargas de trabalho com grandes modelos de linguagem”. Provedores de nuvem como a Alibaba enfrentam a necessidade de atender simultaneamente a milhares de modelos de IA, mas no espaço de inferência, apenas alguns modelos, como Qwen ou DeepSeek, são usados ​​com mais frequência, com outros sendo chamados raramente. Isso leva ao desperdício de recursos. No ecossistema da Alibaba Cloud, por exemplo, até 17,7% dos aceleradores são alocados para processar 1,35% das solicitações.

Pesquisadores em todo o mundo começaram a propor maneiras de melhorar a utilização de recursos computacionais por meio de pooling, onde uma única GPU atende a vários modelos. O sistema da Aegaeon utiliza escalonamento automático em nível de token, permitindo que as GPUs alternem entre diferentes modelos diretamente durante a geração de tokens. Como resultado, uma única GPU pode processar até sete modelos, enquanto sistemas projetados alternativamente podem lidar com dois ou três, no máximo. Latências de comutaçãoEntre os modelos, a queda foi de 97% para o Aegaeon.

O Alibaba está testando esse sistema no marketplace de modelos Bailian, que oferece modelos Qwen para usuários corporativos. Os aceleradores Nvidia H20, desenvolvidos especificamente para o mercado chinês pela empresa americana de mesmo nome, foram temporariamente proibidos de serem enviados para a China em abril, mas a proibição foi suspensa no verão. No entanto, as autoridades chinesas começaram a recomendar fortemente que os desenvolvedores nacionais priorizassem componentes de origem local. Como resultado, a posição da Nvidia no mercado chinês de chips avançados de IA literalmente encolheu a zero, de acordo com o executivo da empresa.

admin

Postagens recentes

A Valve permitiu que os desenvolvedores do Steam mantivessem sua IA oculta, mas apenas se os jogadores não a virem.

A Valve fez esclarecimentos importantes em sua política de publicação de jogos no Steam em…

2 horas atrás

O Ryzen 7 9800X3D continua a morrer misteriosamente: agora também em placas-mãe Asus.

Nas últimas duas semanas, pelo menos cinco publicações apareceram no Reddit relatando falhas em processadores…

2 horas atrás

A Microsoft lançou uma atualização de emergência para o Windows 11 para ajudar os PCs a serem desligados corretamente novamente.

A Microsoft foi obrigada a lançar uma atualização de emergência para o Windows 11, apenas…

4 horas atrás

O TikTok lançou uma espécie de “Netflix para a Geração Z” — um serviço de microdramas chamado PineDrama.

O TikTok lançou discretamente um novo aplicativo, o PineDrama, para microdramas — vídeos curtos na…

4 horas atrás

O Google Chrome agora permite que os usuários desativem a IA local para se protegerem contra fraudes.

Os usuários do Google Chrome agora podem desativar o modelo de IA executado localmente que…

5 horas atrás