A NEO Semiconductor lançou chips 3D X-AI projetados para substituir a memória HBM, que é usada em aceleradores modernos baseados em GPU. A memória DRAM 3D possui um mecanismo de processamento de IA integrado que lida com fluxos de dados sem exigir cálculos matemáticos. Isso ajuda a resolver o problema da largura do barramento entre o processador e a memória, ajudando a melhorar o desempenho e a eficiência dos sistemas de IA.

Fonte da imagem: NEO Semiconductor

No coração do chip 3D X-AI está uma camada de circuito neural que processa dados de 300 camadas de memória no mesmo chip. A densidade de memória do componente é oito vezes maior que a do HBM atual, e 8.000 circuitos neurais proporcionam um aumento de 100 vezes no desempenho devido ao processamento de dados diretamente na memória – o volume de dados é radicalmente reduzido, o que reduz a energia do acelerador consumo em 99%.

«Os chips de IA existentes desperdiçam desempenho e recursos de energia significativos devido a ineficiências arquitetônicas e tecnológicas. A arquitetura atual do chip de IA armazena dados no HBM e delega toda a computação à GPU. Essa arquitetura de armazenamento e processamento de dados separados inevitavelmente transforma o barramento em um gargalo de desempenho. A transferência de grandes quantidades de dados através do barramento reduz o desempenho e aumenta consideravelmente o consumo de energia. O 3D X-AI pode realizar processamento de IA em cada chip HBM. Isso pode reduzir significativamente a quantidade de dados transferidos entre o HBM e a GPU para melhorar o desempenho e reduzir significativamente o consumo de energia”, disse o fundador e CEO da NEO Semiconductor, Andy Hsu.

Um único dado 3D X-AI tem capacidade de 128 GB e oferece velocidades de processamento de IA de 10 TB/s. Doze matrizes em um pacote HBM podem fornecer 1,5 TB de memória com largura de banda de 120 TB/s. Os desenvolvedores de hardware de processamento de IA estão explorando soluções que podem melhorar seu rendimento e velocidade – os semicondutores estão se tornando mais rápidos e eficientes, mas o barramento entre os componentes costuma ser um gargalo. Intel, Kioxia e TSMC, por exemplo, estão trabalhando em tecnologias ópticas para acelerar a comunicação entre componentes de uma placa-mãe. Ao mover parte do processamento da carga de trabalho de IA da GPU para o HBM, a solução da NEO Semiconductor pode tornar os aceleradores muito mais eficientes do que são hoje.

avalanche

Postagens recentes

Elon Musk quer colocar os reguladores americanos contra seus homólogos europeus por discriminarem a SpaceX no mercado da UE.

A experiência política de Elon Musk pode ser interpretada de várias maneiras, mas, ainda no…

56 minutos atrás

Os primeiros protótipos da memória HBM4E da Samsung estarão prontos no próximo mês.

Para a Samsung Electronics, é crucial garantir sua posição no mercado de HBM4E, fornecendo aos…

3 horas atrás

A construção do gigantesco centro de dados de IA de Trump está paralisada: sem clientes, CEO demitido, ações em queda livre.

O maior projeto de construção de um campus de data center de IA do mundo,…

7 horas atrás

A Alphabet está em negociações com a Marvell para desenvolver dois chips de IA para inferência.

A Alphabet iniciou negociações com a Marvell para desenvolver chips especializados capazes de executar modelos…

10 horas atrás

A Blue Origin reutilizou, pela primeira vez, o primeiro estágio de seu gigantesco foguete New Glen.

A empresa aeroespacial de Jeff Bezos, a Blue Origin, deu um grande passo rumo à…

15 horas atrás

A Microsoft adiciona o Agente de IA à barra de tarefas do Windows 11.

A Microsoft confirmou que não tem planos de abandonar os agentes de IA no Windows…

16 horas atrás