Cerebras Systems lançou a plataforma de IA “mais poderosa do mundo” para inferência

A startup americana Cerebras Systems, que desenvolve chips para sistemas de aprendizado de máquina e outras tarefas que consomem muitos recursos, anunciou o lançamento do que é considerada a plataforma de IA mais produtiva do mundo para inferência – Cerebras Inference. Espera-se que concorra seriamente com soluções baseadas em aceleradores NVIDIA.

O sistema de nuvem Cerebras Inference é baseado em aceleradores WSE-3. Esses produtos gigantescos, fabricados com a tecnologia de processo de 5 nm da TSMC, contêm 4 trilhões de transistores, 900 mil núcleos e 44 GB de SRAM. A largura de banda total da memória interna chega a 21 PB/s, e a interconexão interna – 214 PB/s. Para efeito de comparação, um único chip HBM3e no NVIDIA H200 possui uma taxa de transferência de “apenas” 4,8 TB/s.

Fonte da imagem: Cerebras

De acordo com a Cerebras, a nova plataforma de inferência oferece desempenho até 20 vezes maior em comparação com soluções comparáveis ​​em chips NVIDIA em serviços hiperescaladores. Em particular, o desempenho é de até 1.800 tokens por segundo por usuário para o modelo Llama3.1 8B AI e de até 450 tokens por segundo para o Llama3.1 70B. Para efeito de comparação, para AWS esses valores são 93 e 50, respectivamente. Estamos falando de operações FP16. Cerebras afirma que o melhor resultado para clusters baseados em NVIDIA H100 no caso do Llama3.1 70B é de 128 tokens por segundo.

«Ao contrário de abordagens alternativas que sacrificam a precisão pela velocidade, o Cerebras oferece o mais alto desempenho, mantendo a precisão de 16 bits para todo o processo de inferência”, afirma a empresa.

Ao mesmo tempo, os serviços de inferência da Cerebras custam várias vezes menos em comparação com as ofertas concorrentes: US$ 0,1 por 1 milhão de tokens para o Llama 3.1 8B e US$ 0,6 por 1 milhão de tokens para o Llama 3.1 70B. Pague conforme usar. A Cerebras planeja fornecer serviços de inferência por meio de uma API compatível com OpenAI. O benefício dessa abordagem é que os desenvolvedores que já construíram aplicativos baseados em GPT-4, Claude, Mistral ou outros modelos de IA em nuvem não terão que alterar completamente seu código para migrar cargas de trabalho para a plataforma Cerebras Inference.

Para empresas maiores, o plano de serviço Enterprise Tier oferece modelos altamente customizados, experiências customizadas e suporte dedicado. O pacote Developer Tier padrão requer um preço de assinatura a partir de US$ 0,1 por 1 milhão de tokens. Além disso, há um acesso gratuito de nível básico com restrições. Cerebras afirma que o lançamento da plataforma abrirá oportunidades inteiramente novas para a implementação de IA generativa em vários campos.

avalanche

Postagens recentes

Elon Musk terá que devolver US$ 29 bilhões à Tesla para receber seu bônus de longa data de US$ 56 bilhões.

Em 21 de abril, o conselho de administração da Tesla revogou por unanimidade uma bonificação…

27 minutos atrás

A Honor apresentou o poderoso notebook gamer Win H9 com seis ventoinhas para operação silenciosa.

A Honor apresentou o notebook gamer Win H9. O sistema vem equipado com seis ventoinhas…

27 minutos atrás

A Marvell adquire a Polariton, desenvolvedora de soluções plasmônicas.

A Marvell Technology anunciou a aquisição da Polariton Technologies, desenvolvedora de dispositivos fotônicos de alta…

1 hora atrás

Tim Cook revelou seu primeiro grande erro como CEO da Apple.

O CEO da Apple, Tim Cook, classificou o lançamento fracassado do Apple Maps em 2012…

2 horas atrás

A BioWare está muito ocupada para mostrar o novo Mass Effect.

Michael Gamble, produtor executivo e diretor de desenvolvimento do novo Mass Effect da BioWare, comentou…

2 horas atrás

“O Jogo do Ano Está Chegando”: O trailer de lançamento do jogo de ação e ficção científica Saros foi recebido com entusiasmo pelos jogadores.

O estúdio finlandês Housemarque (Returnal, Nex Machina), em colaboração com a Sony Interactive Entertainment, lançou…

2 horas atrás