A Intel e a SambaNova anunciaram uma arquitetura heterogênea pronta para produção para inferência de IA que distribui tarefas entre diferentes tipos de hardware. A plataforma utiliza GPUs para pré-processamento, módulos SambaNova especializados para geração de tokens e processadores Xeon 6 para gerenciamento de tarefas de agentes.
Fonte da imagem: Meta✴
O sistema desenvolvido divide o processo de inferência em estágios distintos, onde cada tipo de chip executa sua função específica. Aceleradores gráficos ou de IA lidam com o processamento inicial de consultas longas (ingest) e a criação de caches de chave-valor, enquanto as unidades de dados reconfiguráveis SN50 da SambaNova cuidam da decodificação. Os processadores Intel Xeon 6, por sua vez, coordenam a distribuição da carga de trabalho e executam operações relacionadas ao agente de IA, como compilação de código e validação de resultados. Isso permitirá que o sistema abranja a mais ampla gama possível de cargas de trabalho e concorra com a Nvidia e outros players do mercado.
Fonte da imagem: SambaNova
Essa abordagem para separar o preenchimento, a decodificação e a geração de tokens, como observado pelo Tom’s Hardware, ecoa a estratégia da Nvidia para sua futura plataforma Rubin, onde funções semelhantes seriam distribuídas entre os chips Rubin CPX e as GPUs Rubin. No entanto, a principal diferença é que a solução da Nvidia ainda não chegou ao mercado, enquanto a Intel e a SambaNova poderão oferecer uma arquitetura pronta para produção já no segundo semestre de 2026.
De acordo com estimativas internas da SambaNova, os processadores Xeon 6 aceleram a compilação do LLVM em mais de 50% em comparação com chips de servidor baseados em Arm. Além disso, seu desempenho em cargas de trabalho de banco de dados vetoriais é 70% superior ao de soluções x86 concorrentes, como o AMD EPYC. Segundo representantes da empresa, esse ganho de eficiência é alcançado pela otimização das interações entre os componentes do sistema e permite que os ciclos de desenvolvimento de agentes de codificação e outros aplicativos de IA sejam significativamente reduzidos, totalmente internamente.
Uma das principais vantagens da nova arquitetura é a sua total compatibilidade com a infraestrutura de data center existente, suportando até 30 kW de potência. Isso permite que as empresas implementem a solução sem a necessidade de grandes atualizações nos sistemas de refrigeração e alimentação elétrica. A plataforma deverá estar disponível para clientes corporativos, operadores de nuvem e iniciativas de IA de governos nacionais no segundo semestre de 2026.
Kevork Kechichian, vice-presidente executivo e gerente geral do Data Center Group (DCG) da Intel, observou que o ecossistema de software para data centers…Historicamente construída sobre a arquitetura x86, a Xeon, em sua opinião, garante que servirá como uma base confiável para a computação heterogênea do futuro.
Para a OpenAI, startup de IA em rápido crescimento, abrir o capital é um evento…
O serviço de streaming Tubi tornou-se a primeira plataforma de streaming de vídeo a ser…
Os smartphones da Apple conquistaram cinco das dez primeiras posições no ranking dos dispositivos mais…
No final de fevereiro, o Departamento de Guerra dos EUA adicionou a Anthropic à sua…
A Motorola anunciou recentemente um novo smartphone de gama média, o Moto G Stylus 2026.…
A Meta✴ lançou um novo modelo de IA chamado Muse Spark, após Mark Zuckerberg investir…