A Cerebras Systems estabeleceu um recorde em aprendizado de máquina para sistemas únicos

O sucesso da Cerebras Systems com seus descendentes incomuns, processadores Cerebras supergrandes que ocupam todo um substrato de silício, é no mínimo interessante de se observar. Seus sistemas são incomuns, mas no campo de aprendizado de máquina eles parecem não ter igual – uma única plataforma Cerebras CS-2 pode substituir quase um cluster inteiro ao treinar um modelo grande. E a empresa provou isso por ação, estabelecendo um novo recorde.

A essência do registro é que o maior modelo de IA do mundo já treinado em um único dispositivo foi treinado no Cerebras CS-2 (sistemas de cluster não contam). É claro que a “singleness” do CS-2 é um tanto arbitrária, mas ainda pode ser considerada como tal, pois um gabinete de equipamento CS-2 contém exatamente um chip WSE-2 e o complexo HPE Superdome Flex, que “alimenta” dados a ele, é considerado auxiliar.

Características comparativas de WSE-1 e WSE-2. Fonte: Cerebras Systems

Estamos falando de treinar um modelo com 20 bilhões de parâmetros, o que nenhum outro sistema no mundo pode fazer. Ao abrir o acesso ao treinamento de redes neurais tão complexas, o Cerebras está atendendo pesquisadores de máquinas de linguagem natural, pois o tempo de treinamento para um modelo sério pode ser reduzido de meses para minutos, eliminando a necessidade de particionamento demorado do modelo entre os nós de um sistema de cluster tradicional – tudo isso é executado no modo “monolítico”.

Projeto do CS-2 e alguns de seus parâmetros técnicos. Fonte: Cerebras Systems

Além disso, modelos desse tamanho exigem muito dinheiro – nem todo pesquisador tem orçamento suficiente para alugar um cluster. Mas o CS-2 democratizará até modelos enormes como GPT-3 1.3B, GPT-J 6B, GPT-3 13B e GPT-NeoX 20B. Seu lançamento tornou-se possível com a última atualização do software proprietário Cerebras Software Platform. Os geneticistas da GSK também estão entusiasmados com a nova oportunidade, usando enormes conjuntos de dados.

Lembre-se que o coração do CS-2, o processador WSE-2, é legitimamente considerado o maior do mundo – contém 850 mil núcleos otimizados para tarefas específicas de aprendizado de máquina. Para “alimentar” esse neuroprocessador com dados e eliminar o tempo de inatividade, são usados ​​12 canais de uma só vez a uma velocidade de 100 Gb / s. Um superservidor HPE Superdome Flex 280 separado é responsável pelo fornecimento de dados, que por si só tem características muito impressionantes.

avalanche

Postagens recentes

Taiwan emite mandado de prisão contra o CEO da OnePlus por aliciamento de dezenas de engenheiros locais.

Promotores taiwaneses emitiram um mandado de prisão contra Pete Lau, CEO e cofundador da fabricante…

38 minutos atrás

Orken é um RPG de ação e fantasia sobre a luta entre orcs e humanos, uma mistura de Dark Souls, Mass Effect e Hi-Fi Rush.

O estúdio de arte alemão Sixmorevodka, conhecido por suas ilustrações para League of Legends, decidiu…

1 hora atrás

A Gunnir e a Sparkle lançaram as placas gráficas profissionais Intel Arc Pro B60, com preços a partir de US$ 745.

A Gunnir e a Sparkle lançaram suas versões da placa gráfica Intel Arc Pro B60…

2 horas atrás

O Snapdragon X2 Plus mostrou-se mais rápido que os processadores Intel e AMD, mas perdeu para o Apple M4 nos primeiros testes.

A PC Magazine testou os processadores Snapdragon X2 Plus, apresentados pela Qualcomm na CES 2026,…

4 horas atrás

O mercado de semicondutores cresceu 21%, atingindo US$ 793 bilhões no ano passado, com a Intel saindo do grupo das três maiores empresas.

Especialistas da Gartner já resumiram os resultados do mercado de semicondutores do ano passado, relatando…

4 horas atrás

O CEO da Nvidia não acredita em “IA divina” e critica previsões pessimistas.

A Nvidia continua sendo uma das principais beneficiárias do boom da IA, e por isso…

4 horas atrás