Tim Zaman, chefe de inteligência artificial e piloto automático da Tesla, revelou que a empresa de Elon Musk opera atualmente o sétimo maior supercomputador do mundo. É verdade que estamos falando apenas do número de aceleradores usados no sistema.
De acordo com o Sr. Zaman, o complexo de computação da Tesla passou recentemente por uma atualização. Como resultado, o número total de aceleradores NVIDIA A100 usados (80 GB) cresceu para 7.360 unidades. No ano passado, a Tesla revelou seu novo cluster de 720 nós, cada um equipado com oito boosters A100. Assim, um total de 5.760 aceleradores foram utilizados no momento do anúncio. O desempenho declarado atingiu 1,8 Eflops (FP16).
Como parte da atualização, o sistema recebeu mais 1600 unidades. os mesmos aceleradores. A Tesla ainda não divulgou o desempenho resultante, mas pode aumentar em cerca de um quarto. O sistema foi projetado para treinar modelos de IA responsáveis pela operação de ferramentas de piloto automático nos veículos elétricos da empresa. Ao longo do caminho, Tesla está desenvolvendo o supercomputador Dojo. Ele será equipado com seus próprios chips D1 (FP32) de 7 nm. Cada chip terá uma área de 645 mm2 e conterá 50 bilhões de transistores.