Tesla falou sobre seu supercomputador AI com capacidade de 1,8 Eflops

Tesla, durante a conferência de visão computacional e reconhecimento de padrões CVPR 2021, revelou informações sobre um novo sistema de computação que é usado para treinar modelos de IA responsáveis ​​pela operação de pilotos automáticos em veículos elétricos.

O sistema em questão é o terceiro cluster de computação da Tesla. Este supercomputador usa NVIDIA A100 Tensor Core Accelerators para oferecer excelente desempenho para IA e aprendizado profundo. O desempenho de pico teórico deste sistema atinge 1,8 Eflops (FP16).

Reuters

O cluster contém 720 nós, cada um equipado com oito aceleradores A100 com 80 GB de memória. Assim, um total de 5760 aceleradores estão envolvidos. O complexo possui armazenamento NVMe para dados “quentes” com uma capacidade total de 10 PB e um rendimento de 1,6 TB / s. Os nós são unidos por uma malha de rede de 640 Tbit / s.

De acordo com a empresa, o nível de desempenho do sistema permite que ele entre nos cinco supercomputadores mais rápidos na atual classificação TOP500. Enquanto isso, a Tesla continua trabalhando no próximo supercomputador Dojo de classe exascale, que também pode se tornar um dos líderes na próxima lista TOP500. A entrada em operação desse sistema está prevista para o final deste ano.

avalanche

Postagens recentes

Tata Group indiano pretende comprar uma grande fábrica de iPhone Wistron

O diversificado conglomerado indiano Tata Group está perto de assinar um acordo com a taiwanesa…

3 minutos atrás

Ações da Virgin Orbit despencaram após queda de foguete na Europa

«O primeiro lançamento espacial do território da Europa "não teve sucesso - a empresa Virgin…

3 horas atrás