O CEO da OpenAI, Sam Altman, afirmou que a empresa implantará mais de 1 milhão de aceleradores de GPU até o final de 2025, com planos de aumentar esse número em 100 vezes. Em comparação, a atual infraestrutura xAI de Elon Musk, que alimenta o modelo Grok 4, utiliza cerca de 200.000 chips Nvidia H100 — cinco vezes menos do que a OpenAI planeja implantar até o final do ano.

Fonte da imagem: Levart_Photographer/Unsplash

Fonte da imagem: TechCrunch/wikimedia.org (CC BY 2.0)

O custo de implementar um aumento de 100 vezes na capacidade (com um preço médio de uma GPU de US$ 30.000) é estimado em cerca de US$ 3 trilhões – quase o mesmo que o PIB do Reino Unido. E isso sem levar em conta o custo da eletricidade e da construção de data centers. Além disso, a Nvidia não conseguirá produzir tantas GPUs nos próximos anos, sem mencionar a necessidade de fornecer energia a elas. No entanto, aparentemente, para Altman, esses não são apenas números, mas parte de uma estratégia para criar inteligência artificial geral (IAG), o que exigirá soluções fundamentalmente novas – incluindo o desenvolvimento de nossos próprios chips e novas arquiteturas.

Um excelente exemplo da visão de futuro da OpenAI é seu data center no Texas, que já se tornou o maior do mundo. Atualmente, ele consome cerca de 300 MW e, em meados de 2026, esse número chegará a 1 GW. No entanto, esses “apetites” estão causando preocupação entre as empresas de energia locais: manter uma tensão estável para uma instalação desse porte exige atualizações de rede caras, com as quais nem mesmo as empresas estatais conseguem arcar.

Especialistas afirmam que a ideia de 100 milhões de GPUs é irrealista hoje, pois exige avanços na fabricação e na eficiência energética. No entanto, Altman não se concentra nas capacidades atuais, mas no que pode se tornar realidade amanhã.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *