A Intel e a SambaNova lançaram um produto capaz de desbancar a Nvidia no segmento de IA.

A Intel e a SambaNova anunciaram uma arquitetura heterogênea pronta para produção para inferência de IA que distribui tarefas entre diferentes tipos de hardware. A plataforma utiliza GPUs para pré-processamento, módulos SambaNova especializados para geração de tokens e processadores Xeon 6 para gerenciamento de tarefas de agentes.

Fonte da imagem: Meta✴

O sistema desenvolvido divide o processo de inferência em estágios distintos, onde cada tipo de chip executa sua função específica. Aceleradores gráficos ou de IA lidam com o processamento inicial de consultas longas (ingest) e a criação de caches de chave-valor, enquanto as unidades de dados reconfiguráveis ​​SN50 da SambaNova cuidam da decodificação. Os processadores Intel Xeon 6, por sua vez, coordenam a distribuição da carga de trabalho e executam operações relacionadas ao agente de IA, como compilação de código e validação de resultados. Isso permitirá que o sistema abranja a mais ampla gama possível de cargas de trabalho e concorra com a Nvidia e outros players do mercado.

Fonte da imagem: SambaNova

Essa abordagem para separar o preenchimento, a decodificação e a geração de tokens, como observado pelo Tom’s Hardware, ecoa a estratégia da Nvidia para sua futura plataforma Rubin, onde funções semelhantes seriam distribuídas entre os chips Rubin CPX e as GPUs Rubin. No entanto, a principal diferença é que a solução da Nvidia ainda não chegou ao mercado, enquanto a Intel e a SambaNova poderão oferecer uma arquitetura pronta para produção já no segundo semestre de 2026.

De acordo com estimativas internas da SambaNova, os processadores Xeon 6 aceleram a compilação do LLVM em mais de 50% em comparação com chips de servidor baseados em Arm. Além disso, seu desempenho em cargas de trabalho de banco de dados vetoriais é 70% superior ao de soluções x86 concorrentes, como o AMD EPYC. Segundo representantes da empresa, esse ganho de eficiência é alcançado pela otimização das interações entre os componentes do sistema e permite que os ciclos de desenvolvimento de agentes de codificação e outros aplicativos de IA sejam significativamente reduzidos, totalmente internamente.

Uma das principais vantagens da nova arquitetura é a sua total compatibilidade com a infraestrutura de data center existente, suportando até 30 kW de potência. Isso permite que as empresas implementem a solução sem a necessidade de grandes atualizações nos sistemas de refrigeração e alimentação elétrica. A plataforma deverá estar disponível para clientes corporativos, operadores de nuvem e iniciativas de IA de governos nacionais no segundo semestre de 2026.

Kevork Kechichian, vice-presidente executivo e gerente geral do Data Center Group (DCG) da Intel, observou que o ecossistema de software para data centers…Historicamente construída sobre a arquitetura x86, a Xeon, em sua opinião, garante que servirá como uma base confiável para a computação heterogênea do futuro.

admin

Compartilhar
Publicado por
admin

Postagens recentes

A OpenAI oferecerá algumas de suas ações a investidores de varejo.

Para a OpenAI, startup de IA em rápido crescimento, abrir o capital é um evento…

36 minutos atrás

Tubi tornou-se o primeiro serviço de streaming a ser integrado ao ChatGPT.

O serviço de streaming Tubi tornou-se a primeira plataforma de streaming de vídeo a ser…

2 horas atrás

A Apple ocupou metade das posições no ranking dos 10 melhores smartphones para o quarto trimestre de 2025.

Os smartphones da Apple conquistaram cinco das dez primeiras posições no ranking dos dispositivos mais…

2 horas atrás

A Motorola aumentou os preços de seus smartphones de baixo custo em até 50%.

A Motorola anunciou recentemente um novo smartphone de gama média, o Moto G Stylus 2026.…

3 horas atrás

Meta retorna ao iGame: Superintelligence Lab revela a poderosa rede neural Muse Spark.

A Meta✴ lançou um novo modelo de IA chamado Muse Spark, após Mark Zuckerberg investir…

9 horas atrás