A NEO Semiconductor lançou chips 3D X-AI projetados para substituir a memória HBM, que é usada em aceleradores modernos baseados em GPU. A memória DRAM 3D possui um mecanismo de processamento de IA integrado que lida com fluxos de dados sem exigir cálculos matemáticos. Isso ajuda a resolver o problema da largura do barramento entre o processador e a memória, ajudando a melhorar o desempenho e a eficiência dos sistemas de IA.

Fonte da imagem: NEO Semiconductor

No coração do chip 3D X-AI está uma camada de circuito neural que processa dados de 300 camadas de memória no mesmo chip. A densidade de memória do componente é oito vezes maior que a do HBM atual, e 8.000 circuitos neurais proporcionam um aumento de 100 vezes no desempenho devido ao processamento de dados diretamente na memória – o volume de dados é radicalmente reduzido, o que reduz a energia do acelerador consumo em 99%.

«Os chips de IA existentes desperdiçam desempenho e recursos de energia significativos devido a ineficiências arquitetônicas e tecnológicas. A arquitetura atual do chip de IA armazena dados no HBM e delega toda a computação à GPU. Essa arquitetura de armazenamento e processamento de dados separados inevitavelmente transforma o barramento em um gargalo de desempenho. A transferência de grandes quantidades de dados através do barramento reduz o desempenho e aumenta consideravelmente o consumo de energia. O 3D X-AI pode realizar processamento de IA em cada chip HBM. Isso pode reduzir significativamente a quantidade de dados transferidos entre o HBM e a GPU para melhorar o desempenho e reduzir significativamente o consumo de energia”, disse o fundador e CEO da NEO Semiconductor, Andy Hsu.

Um único dado 3D X-AI tem capacidade de 128 GB e oferece velocidades de processamento de IA de 10 TB/s. Doze matrizes em um pacote HBM podem fornecer 1,5 TB de memória com largura de banda de 120 TB/s. Os desenvolvedores de hardware de processamento de IA estão explorando soluções que podem melhorar seu rendimento e velocidade – os semicondutores estão se tornando mais rápidos e eficientes, mas o barramento entre os componentes costuma ser um gargalo. Intel, Kioxia e TSMC, por exemplo, estão trabalhando em tecnologias ópticas para acelerar a comunicação entre componentes de uma placa-mãe. Ao mover parte do processamento da carga de trabalho de IA da GPU para o HBM, a solução da NEO Semiconductor pode tornar os aceleradores muito mais eficientes do que são hoje.

avalanche

Postagens recentes

O foguete para o histórico sobrevoo lunar tripulado está pronto para ser levado à plataforma de lançamento.

A NASA anunciou que o novo foguete lunar SLS para a histórica missão Artemis 2…

14 minutos atrás

A Nvidia contratou seu primeiro diretor de marketing.

A Nvidia, fabricante líder de chips de inteligência artificial, contratou Alison Wagonfeld, chefe de marketing…

1 hora atrás

As empresas chinesas ultrapassaram significativamente a Tesla e a Figure AI no fornecimento de robôs humanoides.

Segundo a empresa de pesquisa Omdia, os fabricantes chineses serão responsáveis ​​pela grande maioria das…

2 horas atrás

A Qualcomm está em negociações com a Samsung sobre a fabricação terceirizada de chips de 2nm.

Segundo o Korea Economic Daily, citando Cristiano Amon, CEO da Qualcomm, a empresa americana está…

2 horas atrás

A AMD não prevê escassez de placas gráficas Radeon em 2026, mas aumentos de preço são inevitáveis.

As fortes parcerias da AMD com fornecedores de DRAM garantirão que não haverá escassez de…

2 horas atrás