Tesla, durante a conferência de visão computacional e reconhecimento de padrões CVPR 2021, revelou informações sobre um novo sistema de computação que é usado para treinar modelos de IA responsáveis pela operação de pilotos automáticos em veículos elétricos.
O sistema em questão é o terceiro cluster de computação da Tesla. Este supercomputador usa NVIDIA A100 Tensor Core Accelerators para oferecer excelente desempenho para IA e aprendizado profundo. O desempenho de pico teórico deste sistema atinge 1,8 Eflops (FP16).
O cluster contém 720 nós, cada um equipado com oito aceleradores A100 com 80 GB de memória. Assim, um total de 5760 aceleradores estão envolvidos. O complexo possui armazenamento NVMe para dados “quentes” com uma capacidade total de 10 PB e um rendimento de 1,6 TB / s. Os nós são unidos por uma malha de rede de 640 Tbit / s.
De acordo com a empresa, o nível de desempenho do sistema permite que ele entre nos cinco supercomputadores mais rápidos na atual classificação TOP500. Enquanto isso, a Tesla continua trabalhando no próximo supercomputador Dojo de classe exascale, que também pode se tornar um dos líderes na próxima lista TOP500. A entrada em operação desse sistema está prevista para o final deste ano.
A Samsung decidiu atualizar a equipe de gestão do negócio de semicondutores em maio, quando…
A plataforma de microblog Threads, criada pela Meta✴ como alternativa à rede social X (antigo…
As especificidades do apoio à indústria nacional de semicondutores por parte das autoridades sul-coreanas têm-se…
Recentemente falamos sobre o modelo VCR V12, o principal robô de limpeza da Midea. Ele…
A Asus lançou a placa-mãe Pro WS Z890-ACE SE para a criação de estações de…
Após o sucesso do ano passado, a editora americana Devolver Digital decidiu organizar mais um…