A NeuReality anunciou o chip NR1, desenvolvido especificamente para orquestração de inferência, relata o HPCwire. Ele pode ser combinado com qualquer GPU ou acelerador de IA para aumentar a utilização da GPU para quase 100%, em comparação com a média de 30% a 50% da combinação tradicional de CPU/NIC encontrada em servidores modernos.
O chip NR1 foi projetado para substituir CPUs e NICs tradicionais, que são o gargalo para cargas de trabalho de IA, ao mesmo tempo em que oferece um aumento de seis vezes no poder de computação para permitir o rendimento máximo do acelerador e a inferência de IA em larga escala, afirma o desenvolvedor.
Como a empresa observou, há anos os desenvolvedores vêm evoluindo as GPUs para atender às demandas da IA, tornando-as mais rápidas e potentes. Mas as CPUs tradicionais, projetadas para a era da internet e não para a era da IA, permaneceram praticamente inalteradas, tornando-se um gargalo à medida que os modelos de IA se tornam mais complexos e as cargas de trabalho de IA aumentam de tamanho.
Fonte da imagem: NeuReality
O NR1 inclui todos os principais recursos de CPU necessários para executar cargas de trabalho de IA, processadores dedicados de mídia e dados, um hipervisor de hardware e blocos IP de rede complexos, proporcionando desempenho significativamente superior, menor consumo de energia e maior ROI. Nos testes da própria empresa, executando o mesmo modelo de IA generativa no mesmo acelerador de IA, seu chip NR1 rende 6,5 vezes mais tokens do que um servidor x86 com o mesmo custo e consumo de energia.
Em linha com a tendência atual de separar recursos de armazenamento e computação, a desagregação dos recursos de IA proporciona isolamento otimizado da computação de IA, observou a NeuReality. Essa separação é especialmente importante em data centers e nuvens. Plataformas tradicionais definidas por software, centradas em CPU, enfrentam desafios como alto custo, consumo de energia e gargalos no sistema ao lidar com cargas de trabalho de inferência de IA. A complexidade da infraestrutura moderna e os altos custos frequentemente limitam o uso de recursos completos de inferência, afirmou a NeuReality.
A NR1 concentra-se em descarregar o pipeline de IA de ponta a ponta. O hipervisor de IA de hardware gerencia o processamento do caminho de dados e o agendamento de tarefas, abrangendo mecanismos de pré e pós-processamento, bem como o mecanismo de rede AI-over-Fabric. Isso proporciona a melhor relação custo-benefício e os menores custos operacionais, com baixo consumo de energia, latência mínima e escalabilidade linear, afirma a empresa. Para DevOps e MLOps, a empresa fornece um SDK completo e uma camada de serviço baseada em Kubernetes.
O novo chip será usado para resolver problemas nas áreas de finanças e seguros, saúde e produtos farmacêuticos, serviços governamentais e educação, telecomunicações, varejo e comércio eletrônico, para cargas de IA generativas e de agentes, visão computacional, etc.
O NeuReality NR1 inclui:
A NVIDIA, fornecedora e investidora da Lambda, tornou-se sua maior cliente. De acordo com o…
A NVIDIA, fornecedora e investidora da Lambda, tornou-se sua maior cliente. De acordo com o…
A OpenAI reorganizou sua equipe de Comportamento de Modelos, responsável pelas características comportamentais dos modelos…
Quanto mais próximo o dia 9 de setembro, mais ativamente os analistas do setor discutem…
O estúdio que nos proporcionou os incrivelmente atmosféricos FAR: Lone Sails e FAR: Changing Tides…
Foi necessária uma decisão judicial para forçar a Tesla a indicar, em suas referências públicas…