Tim Zaman, chefe de inteligência artificial e piloto automático da Tesla, revelou que a empresa de Elon Musk opera atualmente o sétimo maior supercomputador do mundo. É verdade que estamos falando apenas do número de aceleradores usados no sistema.
De acordo com o Sr. Zaman, o complexo de computação da Tesla passou recentemente por uma atualização. Como resultado, o número total de aceleradores NVIDIA A100 usados (80 GB) cresceu para 7.360 unidades. No ano passado, a Tesla revelou seu novo cluster de 720 nós, cada um equipado com oito boosters A100. Assim, um total de 5.760 aceleradores foram utilizados no momento do anúncio. O desempenho declarado atingiu 1,8 Eflops (FP16).
Fonte da imagem: Tim Zaman
Como parte da atualização, o sistema recebeu mais 1600 unidades. os mesmos aceleradores. A Tesla ainda não divulgou o desempenho resultante, mas pode aumentar em cerca de um quarto. O sistema foi projetado para treinar modelos de IA responsáveis pela operação de ferramentas de piloto automático nos veículos elétricos da empresa. Ao longo do caminho, Tesla está desenvolvendo o supercomputador Dojo. Ele será equipado com seus próprios chips D1 (FP32) de 7 nm. Cada chip terá uma área de 645 mm2 e conterá 50 bilhões de transistores.
A Goodram Industrial, empresa do grupo Wilk Elektronik SA, apresentou discretamente seu primeiro SSD com…
A OpenAI está trabalhando para fortalecer a segurança de seu navegador Atlas AI, mas a…
Diante das sanções sem precedentes impostas pelos EUA há quase seis anos, a gigante chinesa…
A OpenAI lançou um recurso de retrospectiva de fim de ano no estilo do Spotify…
Historicamente, as placas gráficas topo de linha da Nvidia para jogos têm sido usadas para…
Hoje, às 4h13 da manhã, horário de Moscou, foi lançado o primeiro foguete privado da…