A DeepSeek desenvolveu uma nova maneira de economizar recursos no treinamento de IA.

A empresa chinesa DeepSeek celebrou o ano de 2025 com a publicação de um artigo que propõe uma reformulação da arquitetura fundamental usada para treinar modelos básicos de IA. O artigo foi escrito em coautoria com o CEO da empresa, Liang Wenfeng.

Fonte da imagem: Solen Feyissa / unsplash.com

A DeepSeek propôs um método chamado Hiperconexões com Restrições de Variedade (mHC). Esse método ajuda a melhorar a relação custo-benefício dos modelos e permite que eles se mantenham competitivos em relação às soluções americanas, cujos desenvolvedores têm acesso a recursos computacionais significativos. As pesquisas publicadas pela DeepSeek refletem a cultura aberta e colaborativa dos desenvolvedores de IA na China, que publicam uma parte significativa de suas pesquisas abertamente. Os artigos da DeepSeek também podem indicar soluções de engenharia que a empresa está utilizando em seus próximos modelos.

Uma equipe de 19 pesquisadores da empresa observou que o mHC foi testado em modelos com 3 bilhões, 9 bilhões e 27 bilhões de parâmetros, e seu uso não aumentou significativamente a carga computacional em comparação com o método tradicional de Hiperconexões (HC). O método básico de hiperconexão foi proposto por pesquisadores da ByteDance em setembro de 2024 como uma modificação das Redes Residuais (ResNet), a arquitetura dominante de aprendizado profundo introduzida pela Microsoft Research Asia em 2015.

A ResNet permite que redes neurais profundas sejam treinadas de forma a preservar informações-chave (dados residuais) à medida que o número de camadas aumenta.Essa arquitetura é usada para treinar os modelos GPT da OpenAI e AlphaFold do Google DeepMind, e possui uma limitação importante: à medida que o sinal de treinamento passa pelas camadas da rede neural, ele pode degenerar em uma representação universal que é a mesma para todas as camadas, o que significa que corre o risco de ser pouco informativo.Eles resolvem esse problema expandindo o fluxo de dados residuais e aumentando a complexidade da rede neural “sem alterar a carga computacional das unidades individuais”. No entanto, a DeepSeek observa que isso também aumenta a carga de memória, o que prejudica a escalabilidade dessa arquitetura no treinamento de modelos grandes.

Para solucionar esse problema, a DeepSeek propõe o método mHC, que “ajudará a eliminar as limitações existentes e poderá abrir novos caminhos para a evolução de arquiteturas fundamentais de próxima geração”. Os artigos de pesquisa publicados pela empresa frequentemente apontam para a direção técnica subjacente aos modelos subsequentes, segundo especialistas. A DeepSeek deve apresentar um novo modelo de grande porte em meados de fevereiro.

admin

Compartilhar
Publicado por
admin

Postagens recentes

Fim de uma era: a Xiaomi descontinuou a MIUI, a interface que tornou a empresa famosa.

A Xiaomi encerrou oficialmente o suporte para a MIUI, que já foi uma das interfaces…

52 minutos atrás

A Apple lançou o iOS 26.4 e o iPadOS 26.4 com novos emojis e recursos.

As versões estáveis ​​do iOS 26.4 e do iPadOS 26.4 foram lançadas, seis semanas após…

1 hora atrás

As vendas de Marathon atingiram 1,2 milhão de cópias em três semanas, mas a Sony esperava mais.

Os desenvolvedores do estúdio americano Bungie (pertencente à Sony) estão relutantes em divulgar os números…

1 hora atrás

Meta mentiu sobre a segurança do Facebook, Instagram e WhatsApp para crianças; tribunal a multou em US$ 375 milhões.

Um júri do Novo México considerou a Meta culpada de violar a lei estadual em…

2 horas atrás

A escassez de processadores para PC está se agravando, com preços em alta e prazos de entrega já estendidos por meses.

Os preços da memória começaram a subir para os consumidores no segundo semestre do ano…

2 horas atrás

Foi anunciado o Arbiter 131, um jogo de estratégia tática não linear onde “tudo é decidido através da jogabilidade”.

Os desenvolvedores da Ikon Studios, por meio do portal IGN, apresentaram Arbiter 131 – um…

3 horas atrás