“Mais do que ninguém”: Zuckerberg se vangloriou de um sistema com mais de 100 mil Nvidia H100 – Llama 4 é treinado nele.

Um novo passatempo surgiu entre os gigantes americanos de TI – uma competição para ver quem tem os maiores clusters e a maior confiança na superioridade de suas capacidades para treinar grandes modelos de linguagem de IA. Só recentemente, o chefe da Tesla, Elon Musk, se vangloriou de ter concluído a montagem do supercomputador xAI Colossus com 100 mil aceleradores Nvidia H100 para treinamento de IA, bem como o uso de mais de 100 mil dos mesmos aceleradores de IA pelo chefe de Meta✴ Mark Zuckerberg.

Fonte da imagem: CNET/YouTube

O chefe da Meta✴ observou que o referido sistema é usado para treinar um grande modelo de linguagem de próxima geração Llama 4. Este LLM é treinado “em um cluster que usa mais de 100.000 processadores H100 GPU AI, e isso é mais do que qualquer coisa que eu tenha visto em relatórios sobre o que os outros estão fazendo”, disse Zuckerberg. Ele não compartilhou detalhes sobre o que exatamente o Llama 4 já pode fazer. No entanto, como escreve a Wired, citando uma declaração do chefe da Meta✴, seu modelo de IA adquiriu “novas modalidades”, “torna-se mais forte no raciocínio” e “muito mais rápido”. ” .

Com este comentário, Zuckerberg claramente queria picar Musk, que já havia afirmado que seu superaglomerado xAI Colossus usa 100 mil aceleradores Nvidia H100 para treinar o modelo Grok AI. Musk disse mais tarde que o número de aceleradores no xAI Colossus triplicará no futuro. A Meta✴ também declarou anteriormente que planeja receber aceleradores de IA equivalentes a mais de meio milhão de H100 até o final deste ano. Assim, a empresa de Zuckerberg já possui uma quantidade significativa de equipamentos para treinar seus modelos de IA, e mais virão.

Meta✴ adota uma abordagem única para distribuir seus modelos Llama – torna-os totalmente gratuitos, permitindo que outros pesquisadores, empresas e organizações criem novos produtos baseados neles. Isso o diferencia do mesmo GPT-4o da OpenAI e Gemini do Google, que só estão disponíveis por meio da API. No entanto, Meta✴ impõe algumas restrições à licença do Llama, como o uso comercial. Além disso, a empresa não divulga exatamente como seus modelos são treinados. Caso contrário, os modelos Llama são de “código aberto” por natureza.

Considerando o número declarado de aceleradores usados ​​para treinar modelos de IA, surge a pergunta: quanta eletricidade tudo isso requer? Um acelerador especializado pode consumir até 3,7 MWh de energia por ano. Isto significa que 100 mil destes aceleradores consumirão pelo menos 370 GWh de eletricidade – como observado, o suficiente para fornecer energia a mais de 34 milhões de lares americanos médios. Como as empresas extraem toda essa energia? Segundo o próprio Zuckerberg, com o tempo o campo da IA ​​enfrentará limitações na capacidade de energia disponível.

A empresa de Elon Musk, por exemplo, utiliza vários enormes geradores móveis para alimentar um superaglomerado de 100 mil aceleradores localizado num edifício de mais de 7 mil m2 em Memphis, Tennessee. O Google pode não cumprir as suas metas de emissões de carbono, uma vez que aumentou as emissões de gases com efeito de estufa dos seus data centers em 48% desde 2019. Neste contexto, o antigo CEO da Google sugeriu mesmo que os EUA abandonassem os seus objectivos climáticos, permitindo que as empresas de IA operassem a plena capacidade e depois utilizassem as tecnologias de IA desenvolvidas para resolver a crise climática.

A Meta✴ evitou responder à questão de como a empresa conseguiu alimentar um cluster de computação tão gigante. A necessidade de fornecer a quantidade crescente de energia utilizada para IA forçou os mesmos gigantes da tecnologia Amazon, Oracle, Microsoft e Google a recorrerem à energia nuclear. Alguns estão a investir no desenvolvimento de pequenos reactores nucleares, enquanto outros assinaram contratos para reiniciar antigas centrais nucleares para satisfazer as crescentes necessidades energéticas.

avalanche

Postagens recentes

O chefe do Instagram previu ainda mais erros de IA e explicou o que os blogueiros devem fazer a respeito.

O CEO do Instagram, Adam Mosseri, afirmou que a plataforma em breve enfrentará uma onda…

22 minutos atrás

O CEO da NVIDIA anuncia a maior construção de infraestrutura de IA da história da humanidade.

O CEO da NVIDIA, Jensen Huang (foto à direita), falando no encontro anual do Fórum…

1 hora atrás

Análise do tablet HUAWEI MatePad 11.5 S (2026): um substituto básico para laptops / Tablets

É fácil se perder nas complexidades da linha de tablets HUAWEI MatePad — são tantos…

2 horas atrás

Enshrouded, um RPG de sobrevivência cooperativo, deixará o Acesso Antecipado neste outono.

Os desenvolvedores do estúdio independente alemão Keen Games anunciaram os planos de conteúdo para seu…

3 horas atrás

O gato de Schrödinger cresceu: cientistas conseguiram reduzir os fenômenos quânticos ao tamanho dos transistores.

Os cientistas não conseguem precisar onde termina a física clássica e onde começa a física…

3 horas atrás

Rentista Digital: OpenAI planeja ficar com uma porcentagem dos lucros de seus clientes com o ChatGPT.

A diretora financeira da OpenAI, Sarah Friar, falando em um podcast recente, afirmou que a…

4 horas atrás