Google anuncia disponibilidade de aceleradores TPU v6 Trillium AI

O Google anunciou que seus mais recentes aceleradores de IA TPU v6, codinome Trillium, estão disponíveis para clientes para análise como parte da plataforma de nuvem GCP. Afirma-se que hoje o novo produto é a solução mais eficaz do Google em termos de relação preço/desempenho.

A apresentação oficial do Trillium aconteceu em maio deste ano. O produto é equipado com 32 GB de memória HBM com largura de banda de 1,6 TB/s, e a interconexão entre chips ICI oferece a capacidade de transferir dados em velocidades de até 3,58 Tbit/s (quatro portas por chip). São usados ​​blocos SparseCore de terceira geração, projetados para acelerar o trabalho com modelos de IA usados ​​em sistemas de classificação e recomendação.

Fonte da imagem: Google

O Google destaca uma série de vantagens significativas do Trillium (TPU v6e) sobre os aceleradores TPU v5e:

  • Aumento de mais de quatro vezes no desempenho ao treinar modelos de IA;
  • O desempenho da inferência aumenta até três vezes;
  • Melhoria da eficiência energética em 67%;
  • Aumento no desempenho máximo de computação por chip em 4,7 vezes;
  • Aumento duplo na capacidade da HBM;
  • Dobrando o rendimento da interconexão entre chips ICI.

Um nó inclui oito aceleradores TPU v6e (em dois domínios NUMA), dois processadores sem nome (180 vCPUs no total), 1,44 TB de RAM e quatro adaptadores 200G (dois por CPU) para comunicação com o mundo exterior. Observa-se que até 256 produtos Trillium podem ser conectados diretamente por meio de ICI, e a velocidade de conexão de rede agregada de tal cluster (Pod) é de 25,6 Tbit/s. Dezenas de milhares de aceleradores podem ser conectados em um cluster de IA em grande escala graças à plataforma de comutação óptica Júpiter do Google, com uma taxa de transferência combinada de até 13 Pbps. Trillium está disponível como parte da plataforma de IA integrada AI Hypercomputer.

Diz-se que o software Multislice Trillium fornece escalonamento de desempenho quase linear para cargas de trabalho de treinamento de IA. Clusters baseados em Trillium podem fornecer até 91 Eflops de desempenho de IA, quatro vezes mais rápido do que as maiores implantações de TPU v5p. O desempenho do BF16 de um único chip TPU v6e é de 918 Tflops e INT8 – 1836 Tops.

Nos benchmarks Trillium, comparado ao TPU v5e, ele mostrou um aumento de mais de quatro vezes no desempenho ao treinar os modelos Gemma 2-27b, MaxText Default-32b e Llama2-70B, bem como um aumento de mais de três vezes para LLama2 -7b e Gemma2-9b. Além disso, o Trillium fornece um aumento de três vezes no desempenho de inferência para Stable Diffusion XL (em relação ao TPU v5e). Em termos de relação preço/desempenho, a TPU v6e demonstra um aumento de 1,8 vezes em comparação com a TPU v5e e aproximadamente 2 vezes o aumento em comparação com a TPU v5p. Não foi especificado se uma modificação mais produtiva do TPU v6p aparecerá.

avalanche

Postagens recentes

A Apple lançará um aplicativo Siri separado para iOS 27 e macOS 27.

Segundo Mark Gurman, da Bloomberg, a Apple planeja lançar o primeiro aplicativo Siri independente como…

17 minutos atrás

A OpenAI encerrou abruptamente o Sora, o gerador viral de sátiras com IA.

A OpenAI decidiu inesperadamente encerrar seu aplicativo de criação de vídeos com inteligência artificial, o…

17 minutos atrás

NVIDIA Groq 3: SRAM, desagregação, determinismo

As LPUs da Groq são fundamentalmente diferentes dos aceleradores de IA da NVIDIA, mas são…

2 horas atrás

A primeira cerveja do mundo feita com CO₂ extraído diretamente do ar ambiente foi lançada nos EUA.

Pela primeira vez no mundo, a cerveja foi carbonatada com dióxido de carbono (CO₂) capturado…

3 horas atrás