Desenvolvedores chineses admitem que precisam ter acesso aos aceleradores Nvidia Rubin mais recentes para avançar na área de IA.

A competição entre os EUA e a China em inteligência artificial tornou-se evidente, e o progresso de cada lado pode ser avaliado por diferentes métricas. No entanto, representantes da indústria chinesa reconhecem que não conseguirão ultrapassar os EUA nos próximos anos. Além disso, os desenvolvedores chineses não fazem questão de esconder o interesse em acessar aceleradoras americanas de última geração.

Fonte da imagem: Nvidia

No mês passado, Donald Trump aprovou em princípio o envio de aceleradores Nvidia H200 para a China, os aceleradores mais potentes disponíveis para desenvolvedores chineses por meio de canais oficiais. Enquanto as autoridades chinesas avaliam os termos para autorizar as importações do H200, representantes da indústria local de IA não escondem o interesse em obter acesso aos aceleradores mais recentes, como o Nvidia Rubin, que ainda estão sob sanções dos EUA. Curiosamente, as empresas chinesas não estão formalmente proibidas de alugar poder computacional baseado no Rubin fora do país, então os desenvolvedores chineses poderão, pelo menos parcialmente, atender às suas necessidades. No entanto, alguns legisladores americanos estão buscando eliminar essa brecha para contornar as sanções.

Embora o CEO da Nvidia, Jensen Huang, tenha afirmado que a demanda pelo H200 na China é bastante alta, representantes da indústria entrevistados pelo The Wall Street Journal admitiram que esses aceleradores, com sua arquitetura Hopper e duas gerações atrás do Rubin, não são adequados para o treinamento eficaz de modelos avançados de IA. Essa avaliação é parcialmente corroborada por rumores persistentes de que a DeepSeek treinou secretamente seus modelos avançados em aceleradores da geração Blackwell da Nvidia e até mesmo atrasou o lançamento de uma nova versão de seu modelo de linguagem, percebendo que não conseguiria atingir o desempenho necessário usando componentes nacionais. No futuro, o CEO da Nvidia está disposto a começar a fornecer aceleradores para a China não apenas com a arquitetura Blackwell, mas também com a mais moderna Rubin, porém, para que isso aconteça, eles teriam que estar significativamente defasados ​​em relação aos padrões do mercado americano. O interesse dos chinesesAutoridades chinesas já começaram a examinar o uso de aceleradores Blackwell por desenvolvedores.

Desenvolvedores chineses também enfatizam que, dado o rápido desenvolvimento da IA, seus recursos computacionais disponíveis são suficientes principalmente para suportar os modelos de IA existentes, mas não são mais suficientes para o desenvolvimento ativo de novos modelos. Todos os recursos estão sendo efetivamente gastos para atender à demanda atual, não sobrando nada para pesquisa. De acordo com analistas do UBS, no ano passado, as gigantes chinesas da internet gastaram apenas US$ 57 bilhões no desenvolvimento de sua infraestrutura computacional, dez vezes menos do que seus concorrentes americanos.

Pesquisadores da Epoch AI acreditam que os modelos de linguagem mais recentes da Alibaba e da DeepSeek estão, no máximo, quatro meses atrasados ​​em relação aos seus equivalentes americanos, enquanto que, não muito tempo atrás, a diferença era de pelo menos sete meses. O chefe da DeepMind afirmou recentemente que o principal problema para os concorrentes chineses é a falta de pesquisas inovadoras que lhes permitam obter vantagem sobre a IA desenvolvida no Ocidente. A falta de poder computacional, portanto, é apenas um dos obstáculos para obter vantagem sobre os desenvolvedores americanos.

admin

Compartilhar
Publicado por
admin

Postagens recentes

As TVs NanoLED poderão ser comercializadas em 2029.

A Nanosys, empresa que inventou a tecnologia de telas de pontos quânticos, revelou os mais…

36 minutos atrás

A Amazon confirmou a data de encerramento de New World: Aeternum, e os desenvolvedores de Rust se ofereceram para salvar o jogo e dar-lhe vida eterna.

Tendo ficado sem suporte de conteúdo no final do ano passado, o outrora promissor New…

36 minutos atrás

O Google apresentou o TranslateGemma, uma família de modelos de IA de código aberto para tradução local em 55 idiomas.

O Google lançou três versões do seu modelo de IA TranslateGemma para oferecer suporte à…

36 minutos atrás

Os 25 artigos mais populares da Wikipédia de todos os tempos foram revelados.

A Fundação Wikimedia, organização sem fins lucrativos que administra o projeto Wikipédia, revelou à Popular…

2 horas atrás

Um laser de fônons de chip único foi criado nos EUA para representar um avanço nas futuras comunicações sem fio.

Uma equipe de pesquisadores dos EUA desenvolveu um novo tipo de laser que gera ondas…

2 horas atrás

A OpenAI investiu na Merge Labs, startup de implantes cerebrais de Sam Altman.

A OpenAI investiu na startup do CEO Sam Altman, a Merge Labs, que está desenvolvendo…

3 horas atrás