Tesla falou sobre seu supercomputador AI com capacidade de 1,8 Eflops

Tesla, durante a conferência de visão computacional e reconhecimento de padrões CVPR 2021, revelou informações sobre um novo sistema de computação que é usado para treinar modelos de IA responsáveis ​​pela operação de pilotos automáticos em veículos elétricos.

O sistema em questão é o terceiro cluster de computação da Tesla. Este supercomputador usa NVIDIA A100 Tensor Core Accelerators para oferecer excelente desempenho para IA e aprendizado profundo. O desempenho de pico teórico deste sistema atinge 1,8 Eflops (FP16).

Reuters

O cluster contém 720 nós, cada um equipado com oito aceleradores A100 com 80 GB de memória. Assim, um total de 5760 aceleradores estão envolvidos. O complexo possui armazenamento NVMe para dados “quentes” com uma capacidade total de 10 PB e um rendimento de 1,6 TB / s. Os nós são unidos por uma malha de rede de 640 Tbit / s.

De acordo com a empresa, o nível de desempenho do sistema permite que ele entre nos cinco supercomputadores mais rápidos na atual classificação TOP500. Enquanto isso, a Tesla continua trabalhando no próximo supercomputador Dojo de classe exascale, que também pode se tornar um dos líderes na próxima lista TOP500. A entrada em operação desse sistema está prevista para o final deste ano.

avalanche

Postagens recentes

A audiência do Threads cresceu em 35 milhões de usuários em novembro de 2024

A plataforma de microblog Threads, criada pela Meta✴ como alternativa à rede social X (antigo…

1 hora atrás

Análise do aspirador robô Midea VCR M7 EVO: limpar o ambiente é minha principal vocação

Recentemente falamos sobre o modelo VCR V12, o principal robô de limpeza da Midea. Ele…

6 horas atrás

Asus lançou uma placa-mãe com soquete girado para Intel Arrow Lake-S

A Asus lançou a placa-mãe Pro WS Z890-ACE SE para a criação de estações de…

7 horas atrás