O consumo de energia da IA ​​foi reduzido em 95% sem perdas, mas é improvável que a Nvidia aprove o novo algoritmo

Com a crescente popularidade da inteligência artificial, o alto consumo de energia dos modelos de IA está se tornando um problema cada vez mais premente. Apesar de gigantes da tecnologia como Nvidia, Microsoft e OpenAI ainda não terem falado alto sobre este problema, minimizando claramente a sua importância, especialistas da BitEnergy AI desenvolveram uma tecnologia que pode reduzir significativamente o consumo de energia sem perdas significativas na qualidade e velocidade de Trabalho de IA.

Fonte da imagem: Copiloto

Segundo o estudo, o novo método pode reduzir o consumo de energia em até 95%. A equipe chama sua descoberta de Multiplicação de Complexidade Linear, ou L-Mul, para abreviar. De acordo com o TechSpot, este processo de computação é baseado na adição de números inteiros e requer significativamente menos energia e operações em comparação com a multiplicação de ponto flutuante, que é amplamente utilizada em tarefas relacionadas à IA.

Hoje, os números de ponto flutuante são usados ​​ativamente na IA para processar números muito grandes ou muito pequenos. Eles se assemelham à notação em formato binário, permitindo que algoritmos executem cálculos complexos com precisão. No entanto, tal precisão requer recursos extremamente grandes e já levanta algumas preocupações, uma vez que alguns modelos de IA requerem enormes quantidades de eletricidade. Por exemplo, o ChatGPT requer tanta eletricidade quanto 18.000 residências nos EUA consomem – 564 TWh diariamente. Analistas do Cambridge Centre for Alternative Finance estimam que, até 2027, a indústria de IA poderá consumir entre 85 e 134 TWh anualmente.

O algoritmo L-Mul resolve esse problema substituindo operações complexas de multiplicação de ponto flutuante por adições de números inteiros mais simples. Durante os testes, os modelos de IA mantiveram a precisão, enquanto o consumo de energia para operações de tensores foi reduzido em 95% e para operações escalares em 80%.

L-Mul também melhora o desempenho. Descobriu-se que o algoritmo supera os atuais padrões de computação de precisão de 8 bits, fornecendo maior precisão com menos operações em nível de bit. Em testes que abrangem uma variedade de tarefas de IA, incluindo processamento de linguagem natural e visão computacional, o impacto no desempenho foi de apenas 0,07%, o que os especialistas consideraram uma perda menor em comparação com a enorme economia de energia.

Dito isto, os modelos baseados em transformadores, como o GPT, podem beneficiar ao máximo do L-Mul, uma vez que o algoritmo é facilmente integrado em todos os componentes principais destes sistemas. E testes em modelos populares de IA, como Llama e Mistral, mostraram até melhorias na precisão em algumas tarefas.

A má notícia é que o L-Mul requer hardware especializado e os aceleradores de IA atuais não estão otimizados para usar este método. A boa notícia é que já está em andamento o trabalho para criar esse hardware e interfaces de programação de aplicativos (APIs).

Um possível obstáculo poderia ser a resistência de grandes fabricantes de chips como a Nvidia, o que poderia retardar a adoção de novas tecnologias. Visto que, por exemplo, a Nvidia é líder na produção de equipamentos para inteligência artificial e é pouco provável que dê lugar tão facilmente a soluções mais eficientes energeticamente.

avalanche

Postagens recentes

A Europa está a registar um aumento acentuado da procura de computadores portáteis usados ​​devido à escassez de memória.

Com um conjunto de módulos de memória de capacidade média ficando mais caro do que…

4 horas atrás

Hideki Sato, o pai dos consoles de jogos da Sega, faleceu.

Pouco antes do último fim de semana, Hideki Sato, um pioneiro dos consoles de jogos…

10 horas atrás

PlayStation 6 pode ter que esperar até 2028-2029 – Sony considera adiamento devido à crise de memória

Segundo uma reportagem recente da Bloomberg, a Sony está considerando adiar o lançamento do seu…

12 horas atrás

As GPUs Xe Next de próxima geração da Intel serão otimizadas para IA, não para jogos.

Como parte de sua estratégia de desenvolvimento atualizada, a Intel confirmou seus planos de lançar…

13 horas atrás

Os desenvolvedores veteranos de Diablo lançaram uma demo em grande escala do RPG de ação de próxima geração, Darkhaven, no Steam.

Uma demo de Darkhaven, um RPG de ação e fantasia sombria de nova geração da…

13 horas atrás

Milhares de usuários reclamaram de problemas com a rede social X.

Inúmeros usuários relataram que a rede social X estava indisponível. Os relatos de problemas começaram…

14 horas atrás