Tim Zaman, chefe de inteligência artificial e piloto automático da Tesla, revelou que a empresa de Elon Musk opera atualmente o sétimo maior supercomputador do mundo. É verdade que estamos falando apenas do número de aceleradores usados no sistema.
De acordo com o Sr. Zaman, o complexo de computação da Tesla passou recentemente por uma atualização. Como resultado, o número total de aceleradores NVIDIA A100 usados (80 GB) cresceu para 7.360 unidades. No ano passado, a Tesla revelou seu novo cluster de 720 nós, cada um equipado com oito boosters A100. Assim, um total de 5.760 aceleradores foram utilizados no momento do anúncio. O desempenho declarado atingiu 1,8 Eflops (FP16).
Fonte da imagem: Tim Zaman
Como parte da atualização, o sistema recebeu mais 1600 unidades. os mesmos aceleradores. A Tesla ainda não divulgou o desempenho resultante, mas pode aumentar em cerca de um quarto. O sistema foi projetado para treinar modelos de IA responsáveis pela operação de ferramentas de piloto automático nos veículos elétricos da empresa. Ao longo do caminho, Tesla está desenvolvendo o supercomputador Dojo. Ele será equipado com seus próprios chips D1 (FP32) de 7 nm. Cada chip terá uma área de 645 mm2 e conterá 50 bilhões de transistores.
Até recentemente, acreditava-se que a produção de chips de 2 nm no Japão seria feita…
O CEO da OpenAI, Sam Altman, criticou o anúncio da Anthropic após assisti-lo. Em sua…
A Amazon planeja usar inteligência artificial (IA) na produção cinematográfica para reduzir o tempo de…
Muitos analistas já são unânimes há tempos em afirmar que o mercado de smartphones sofrerá…
A AMD publicou documentação técnica em seu site, revelando uma das principais características de suas…
A Microsoft nomeou Hayete Gallot como a nova chefe de sua divisão de segurança. Ela…