Globalmente, espera-se que o consumo de energia dos sistemas generativos de IA aumente. De acordo com a HPC Wire, nos próximos cinco anos, o consumo de eletricidade para esses sistemas será de 1,5% do total global – esta é uma parcela muito significativa, dizem os especialistas.
A suposição correspondente foi apresentada pelos analistas da TechInsights. A base são as previsões da Administração de Informação de Energia dos EUA (EIA) para 2025–2029, nas quais o consumo global de energia para este período é estimado em 153 mil TWh. Os pesquisadores estimam que, no mesmo período, os aceleradores de IA serão responsáveis por 2.318 TWh.
Os cálculos baseiam-se no fato de que cada acelerador requer 700 W, e o consumo do carro-chefe NVIDIA Blackwell é de 1200 W, embora os novos produtos sejam muito mais produtivos do que as soluções das gerações anteriores. Ao fazer previsões, apenas o consumo de energia dos próprios aceleradores é levado em consideração – sem módulos de memória, equipamentos de rede e outros componentes dos sistemas de IA. Segundo especialistas, “você terá que trabalhar muito” para justificar tais gastos.
De acordo com pesquisas da McKinsey, 65% dos entrevistados pretendem usar IA generativa. Para atender à demanda, enormes quantias de dinheiro são investidas na indústria relevante. Se a Microsoft depende principalmente de soluções NVIDIA, então a Meta✴ também está implementando seu próprio projeto, e seu ecossistema computacional será equivalente a cerca de 600 mil H100. De acordo com a TechInsights, a NVIDIA vendeu cerca de 3,76 milhões de aceleradores em 2023, contra 2,6 milhões em 2022.
No ano passado, o Gartner fez uma previsão ainda mais ousada – na sua opinião, a IA poderá consumir 3,5% da eletricidade mundial. No entanto, a metodologia da empresa não é totalmente clara e pode incluir custos de energia para o ecossistema acompanhante, além dos aceleradores. Ao mesmo tempo, os custos da electricidade aumentarão de qualquer forma e, em caso de escassez, os fornecedores de energia simplesmente aumentarão os preços em vez de tentarem dividir a energia disponível entre os consumidores.
Portanto, agora a questão do uso inteligente da energia está se tornando cada vez mais aguda. Assim, a criptomineração nos Estados Unidos, segundo a EIA, é responsável por 2,3% de todo o consumo de energia do país, mas os especialistas concordam que é muito mais racional utilizar recursos para operar sistemas de IA. No entanto, os próprios mineradores estão mudando ativamente para projetos de IA. Além disso, a transição para LSS e a reciclagem de “lixo” aumentam a eficiência energética geral do data center.
Mas há outra maneira. Assim, a Microsoft, juntamente com os fabricantes de hardware, está promovendo agressivamente os chamados. PCs de IA equipados com NPUs ou outros aceleradores para computação de IA local. Na verdade, isso permite transferir parte da carga para dispositivos clientes e, na nuvem, são calculadas as tarefas que estão além das capacidades dos dispositivos. A Apple adota uma abordagem semelhante.