O consumo de energia da IA ​​foi reduzido em 95% sem perdas, mas é improvável que a Nvidia aprove o novo algoritmo

Com a crescente popularidade da inteligência artificial, o alto consumo de energia dos modelos de IA está se tornando um problema cada vez mais premente. Apesar de gigantes da tecnologia como Nvidia, Microsoft e OpenAI ainda não terem falado alto sobre este problema, minimizando claramente a sua importância, especialistas da BitEnergy AI desenvolveram uma tecnologia que pode reduzir significativamente o consumo de energia sem perdas significativas na qualidade e velocidade de Trabalho de IA.

Fonte da imagem: Copiloto

Segundo o estudo, o novo método pode reduzir o consumo de energia em até 95%. A equipe chama sua descoberta de Multiplicação de Complexidade Linear, ou L-Mul, para abreviar. De acordo com o TechSpot, este processo de computação é baseado na adição de números inteiros e requer significativamente menos energia e operações em comparação com a multiplicação de ponto flutuante, que é amplamente utilizada em tarefas relacionadas à IA.

Hoje, os números de ponto flutuante são usados ​​ativamente na IA para processar números muito grandes ou muito pequenos. Eles se assemelham à notação em formato binário, permitindo que algoritmos executem cálculos complexos com precisão. No entanto, tal precisão requer recursos extremamente grandes e já levanta algumas preocupações, uma vez que alguns modelos de IA requerem enormes quantidades de eletricidade. Por exemplo, o ChatGPT requer tanta eletricidade quanto 18.000 residências nos EUA consomem – 564 TWh diariamente. Analistas do Cambridge Centre for Alternative Finance estimam que, até 2027, a indústria de IA poderá consumir entre 85 e 134 TWh anualmente.

O algoritmo L-Mul resolve esse problema substituindo operações complexas de multiplicação de ponto flutuante por adições de números inteiros mais simples. Durante os testes, os modelos de IA mantiveram a precisão, enquanto o consumo de energia para operações de tensores foi reduzido em 95% e para operações escalares em 80%.

L-Mul também melhora o desempenho. Descobriu-se que o algoritmo supera os atuais padrões de computação de precisão de 8 bits, fornecendo maior precisão com menos operações em nível de bit. Em testes que abrangem uma variedade de tarefas de IA, incluindo processamento de linguagem natural e visão computacional, o impacto no desempenho foi de apenas 0,07%, o que os especialistas consideraram uma perda menor em comparação com a enorme economia de energia.

Dito isto, os modelos baseados em transformadores, como o GPT, podem beneficiar ao máximo do L-Mul, uma vez que o algoritmo é facilmente integrado em todos os componentes principais destes sistemas. E testes em modelos populares de IA, como Llama e Mistral, mostraram até melhorias na precisão em algumas tarefas.

A má notícia é que o L-Mul requer hardware especializado e os aceleradores de IA atuais não estão otimizados para usar este método. A boa notícia é que já está em andamento o trabalho para criar esse hardware e interfaces de programação de aplicativos (APIs).

Um possível obstáculo poderia ser a resistência de grandes fabricantes de chips como a Nvidia, o que poderia retardar a adoção de novas tecnologias. Visto que, por exemplo, a Nvidia é líder na produção de equipamentos para inteligência artificial e é pouco provável que dê lugar tão facilmente a soluções mais eficientes energeticamente.

avalanche

Postagens recentes

A produção de chips da Samsung caiu imediatamente 58% devido aos protestos dos trabalhadores.

A produção de microchips nas fábricas da Samsung Electronics na Coreia do Sul caiu drasticamente…

23 minutos atrás

O mercado de processadores para smartphones encolheu 8% no primeiro trimestre, mas Apple, Samsung e Unisoc fortaleceram suas posições.

Com a escassez de memória elevando os preços dos smartphones, o segmento de processadores deve…

37 minutos atrás

Nos termos do acordo de três anos, a Meta utilizará centenas de milhares de chips Amazon Graviton.

A evolução da infraestrutura de computação de IA está ocorrendo rapidamente, como evidenciado, em parte,…

2 horas atrás

As autoridades chinesas irão restringir o investimento dos EUA em startups de tecnologia.

Tradicionalmente, ouvimos falar mais sobre restrições ao investimento na China por parte das autoridades americanas,…

2 horas atrás

A escassez de chips de memória interrompeu os planos da Microsoft para o Xbox.

A Microsoft ainda não está pronta para anunciar a data de lançamento do próximo console…

6 horas atrás