Tim Zaman, chefe de inteligência artificial e piloto automático da Tesla, revelou que a empresa de Elon Musk opera atualmente o sétimo maior supercomputador do mundo. É verdade que estamos falando apenas do número de aceleradores usados no sistema.
De acordo com o Sr. Zaman, o complexo de computação da Tesla passou recentemente por uma atualização. Como resultado, o número total de aceleradores NVIDIA A100 usados (80 GB) cresceu para 7.360 unidades. No ano passado, a Tesla revelou seu novo cluster de 720 nós, cada um equipado com oito boosters A100. Assim, um total de 5.760 aceleradores foram utilizados no momento do anúncio. O desempenho declarado atingiu 1,8 Eflops (FP16).
Fonte da imagem: Tim Zaman
Como parte da atualização, o sistema recebeu mais 1600 unidades. os mesmos aceleradores. A Tesla ainda não divulgou o desempenho resultante, mas pode aumentar em cerca de um quarto. O sistema foi projetado para treinar modelos de IA responsáveis pela operação de ferramentas de piloto automático nos veículos elétricos da empresa. Ao longo do caminho, Tesla está desenvolvendo o supercomputador Dojo. Ele será equipado com seus próprios chips D1 (FP32) de 7 nm. Cada chip terá uma área de 645 mm2 e conterá 50 bilhões de transistores.
Segundo a previsão da Gartner, até 2030, a inferência de modelos de aprendizado de máquina…
A Microsoft e a NVIDIA estão colaborando no setor de energia nuclear, mas não na…
O remake do jogo cult de ação e terror Resident Evil 4 completou recentemente três…
Cientistas da Apple desenvolveram a tecnologia RubiCap — uma forma de treinar modelos de inteligência…
O escandaloso caso criminal envolvendo o contrabando de equipamentos de servidores para a China, no…
A Agência Espacial Europeia (ESA) divulgou o levantamento conjunto mais abrangente de Saturno, realizado por…