Estimativas anteriores sugeriram que o ChatGPT consome cerca de 3 Wh de energia para responder a uma única consulta, o que é 10 vezes a energia média necessária ao usar a pesquisa do Google. No entanto, um novo relatório da Epoch AI, um instituto de pesquisa que estuda as principais tendências e questões que moldarão a trajetória da inteligência artificial, desafia essas estatísticas e sugere que o consumo de energia do chatbot da OpenAI é significativamente menor do que se pensava anteriormente.
Fonte da imagem: OpenAI
O relatório da Epoch AI afirma que o ChatGPT, equipado com o modelo GPT-4o, consome apenas 0,3 Wh de energia ao gerar uma resposta. Em declarações ao TechCrunch, o analista de dados da Epoch AI, Joshua You, observou: “O consumo de energia não é tão grande quando comparado ao uso de aparelhos comuns, aquecimento ou resfriamento da casa ou uso do carro”.
Segundo o especialista, estimativas anteriores dos custos de energia do ChatGPT eram baseadas em dados desatualizados. O especialista observa que as supostas estatísticas de consumo de energia “universais” do ChatGPT foram baseadas na suposição de que a OpenAI estava usando chips antigos e ineficientes para executar e operar sua IA.
«Além disso, alguns dos meus colegas apontaram que a estimativa mais amplamente utilizada de 3 Wh por consulta era baseada em pesquisas bastante antigas. E se julgarmos por alguns cálculos aproximados, essas estatísticas pareciam muito altas”, acrescentou Yu.
Deve-se acrescentar, no entanto, que a estimativa da Epoch AI sobre o consumo de energia do ChatGPT também não é definitiva, pois não leva em consideração alguns recursos importantes da IA, como a geração de imagens do chatbot.
O especialista disse que não espera que o consumo de energia do ChatGPT aumente, mas à medida que os modelos de IA se tornam mais avançados, eles exigirão mais energia para operar. As principais empresas de IA, incluindo a OpenAI, estão se movendo em direção ao desenvolvimento dos chamados modelos de IA de raciocínio que não apenas respondem a uma pergunta, mas também descrevem todo o processo que levou a essa resposta, o que, por sua vez, exige muita energia.
Vários relatórios nos últimos anos mostraram que tecnologias como o Microsoft Copilot e o ChatGPT (ou melhor, o hardware em que são executados) consomem o equivalente a uma garrafa de água gelada ao gerar uma resposta a uma consulta. As descobertas seguem um relatório anterior que descobriu que o uso combinado de energia da Microsoft e do Google excede o consumo de eletricidade de mais de 100 países no mundo todo.
Um dos estudos mais recentes detalhou como o modelo GPT-3 da OpenAI consome quatro vezes mais água do que se pensava anteriormente, enquanto o GPT-4 consome até três garrafas de água para gerar apenas 100 palavras. É bastante claro que os modelos de IA começam a consumir mais recursos à medida que se tornam mais avançados. No entanto, as descobertas do estudo mais recente sugerem que o mesmo ChatGPT pode não ser tão glutão quanto se pensava anteriormente.
Um usuário do Reddit relatou um incêndio em um conector de alimentação 12V-2x6 de 12+4…
Em 1975, uma aposta curiosa foi feita na URSS entre cientistas do Instituto de Ciências…
Em 1975, uma aposta curiosa foi feita na URSS entre cientistas do Instituto de Ciências…
Processador Intel Core 2 Duo E4600 2.4 GHz / AMD Athlon 64 X2 4600 2.4…
A Intel foi a primeira a desenvolver uma arquitetura de chiplets claramente desagregada — as…
A maioria dos videogames é projetada para proporcionar diversão e entretenimento, mas o jogo de…