Acelerador para acelerador: Fujitsu introduziu software que pode dobrar a velocidade de processamento de tarefas de IA

A Fujitsu anunciou a disponibilidade de middleware projetado para otimizar o uso de aceleradores de IA. Tal como referido no comunicado de imprensa, esta solução permite aumentar a eficiência dos aceleradores, o que é especialmente importante num contexto de escassez de recursos computacionais deste tipo.

O software distingue entre código que requer uma GPU para ser executado e aquele que pode ser executado apenas na CPU, otimizando a alocação de recursos e o gerenciamento de memória em diferentes plataformas e aplicativos de IA. Além disso, o software controla a prioridade de execução dos cálculos, dando preferência a processos mais eficientes. Curiosamente, a alocação não utiliza a abordagem tradicional de basear a seleção de recursos na tarefa inteira.

Fonte da imagem: Fujitsu

A empresa anunciou a solução (Adaptive GPU Allocator) em novembro de 2023. Em seguida, falaram sobre a necessidade de usar um framework proprietário baseado em TensorFlow e PyTorch. O anúncio atual não menciona isso explicitamente, mas é relatado que o produto combina a tecnologia de alocação adaptativa de recursos de cada acelerador individual com algum tipo de otimização baseada em IA. Além disso, o novo produto permite processar com eficiência até mesmo aquelas tarefas que não cabem inteiramente na memória do acelerador. Durante os testes, conseguimos processar 150 GB de dados de IA em uma GPU com aproximadamente 30 GB de RAM livre.

A Fujitsu disse que a solução aumentou a eficiência da computação de IA em 2,25 vezes em testes reais em AWL, Xtreme-D e Morgenrot. E dois grandes clientes, Tradom e Sakura Internet, já começaram a implementar a nova ferramenta. “Ao abordar o acelerador e a escassez de energia causada pela crescente procura global por IA, a Fujitsu pretende contribuir para aumentar a produtividade empresarial e a criatividade dos seus clientes”, afirmou a empresa.

Porém, até o momento a solução só consegue agilizar o funcionamento dos aceleradores em um servidor, mas a empresa está trabalhando para garantir que ela possa atender múltiplas GPUs instaladas em vários servidores. Em outras palavras, ainda não permitirá acelerar um cluster inteiro de IA, mas ainda é uma maneira conveniente de “extrair mais” de um servidor GPU, observou o recurso The Register.

avalanche

Postagens recentes

Editora do War Thunder lançará Active Matter, um jogo de tiro tático inspirado em SCP ambientado em um multiverso fraturado

A editora Gaijin Entertainment (War Thunder, Enlisted) e os desenvolvedores de seu estúdio Team Matter…

2 horas atrás

A Apple Intelligence não chegará à UE até abril de 2025

A Apple não terá pressa em expandir a geografia do seu serviço de IA. Após…

2 horas atrás

O Apple Intelligence foi lançado no iPhone, iPad e Mac de forma simplificada e apenas em um país

A Apple anunciou que os primeiros recursos da plataforma de inteligência artificial Apple Intelligence foram…

2 horas atrás

Não há jogabilidade, mas espere: a Bungie compartilhou novos detalhes da Maratona e abriu a página do jogo no Steam

No anúncio da primavera passada, os desenvolvedores do jogo de tiro PvP de ficção científica…

2 horas atrás

O Intel Core Ultra 200 sofreu nas mãos do Windows 11 24H2 – ele os retarda em dezenas de por cento, mas é fácil de corrigir

O desempenho dos novos processadores Intel Core Ultra 200S (Arrow Lake-S) é significativamente reduzido quando…

3 horas atrás

A Apple adicionou uma porta USB-C ao Magic Keyboard, Magic Mouse e Magic Trackpad

Junto com o novo iMac multifuncional, a Apple lançou versões atualizadas do Magic Mouse, Magic…

4 horas atrás