Tim Zaman, chefe de inteligência artificial e piloto automático da Tesla, revelou que a empresa de Elon Musk opera atualmente o sétimo maior supercomputador do mundo. É verdade que estamos falando apenas do número de aceleradores usados no sistema.
De acordo com o Sr. Zaman, o complexo de computação da Tesla passou recentemente por uma atualização. Como resultado, o número total de aceleradores NVIDIA A100 usados (80 GB) cresceu para 7.360 unidades. No ano passado, a Tesla revelou seu novo cluster de 720 nós, cada um equipado com oito boosters A100. Assim, um total de 5.760 aceleradores foram utilizados no momento do anúncio. O desempenho declarado atingiu 1,8 Eflops (FP16).
Como parte da atualização, o sistema recebeu mais 1600 unidades. os mesmos aceleradores. A Tesla ainda não divulgou o desempenho resultante, mas pode aumentar em cerca de um quarto. O sistema foi projetado para treinar modelos de IA responsáveis pela operação de ferramentas de piloto automático nos veículos elétricos da empresa. Ao longo do caminho, Tesla está desenvolvendo o supercomputador Dojo. Ele será equipado com seus próprios chips D1 (FP32) de 7 nm. Cada chip terá uma área de 645 mm2 e conterá 50 bilhões de transistores.
Esta semana, a OpenAI lançou um novo serviço nos Estados Unidos, 1-800-CHATGPT, onde qualquer pessoa…
Esta semana, a OpenAI lançou um novo serviço nos Estados Unidos, 1-800-CHATGPT, onde qualquer pessoa…
Esta semana, a OpenAI lançou um novo serviço nos Estados Unidos, 1-800-CHATGPT, onde qualquer pessoa…
O portal IGN continua a compartilhar materiais exclusivos sobre o RPG de ação medieval de…
A LG Signature OLED T TV transparente, que a empresa coreana demonstrou na CES 2024…
A Radxa expandiu sua linha de computadores de placa única com o modelo Orion O6,…