A Amazon Web Services (AWS) desenvolveu e lançou seu próprio sistema de resfriamento líquido para data centers em 11 meses – uma resposta rápida às crescentes demandas por aceleradores de IA cada vez mais potentes, informa o serviço de imprensa da empresa. A refrigeração está passando por uma revolução: o setor de data centers está migrando massivamente do resfriamento a ar para o resfriamento líquido, afirma a empresa.
Ao mesmo tempo, a empresa enfatiza que o objetivo não é criar condições “confortáveis” para os chips a 20 °C, mas proteger os servidores do superaquecimento com o mínimo consumo de água e energia. Os chips de IA modernos emitem muito calor, mas, para aumentar a produtividade, eles precisam ser colocados o mais próximos possível uns dos outros. Nesse caso, o fluxo de ar deve ser tão intenso que o esquema clássico de free-cooling se torne simplesmente ineficaz e caro de usar.
Fonte da imagem: Amazon
A AWS afirma que o setor ultrapassou o limite a partir do qual o uso de sistemas de resfriamento líquido é mais rentável para dissipação de calor. A equipe da AWS estudou os produtos já existentes no mercado e, em seguida, decidiu desenvolver sua própria versão. O resfriamento direto do chip (DLC) foi escolhido: um bloco de água é montado diretamente no acelerador, por onde circula um líquido de arrefecimento com temperatura próxima à de uma “jacuzzi”, transferindo o calor para um sistema especial de descarga de calor. O ciclo é fechado, de modo que o líquido circula repetidamente, sem aumentar o consumo de água do data center.
Foram necessários quatro meses do conceito ao protótipo. Em 11 meses, a AWS concluiu o projeto, ajustou a cadeia de suprimentos, desenvolveu o software para gerenciar o sistema, testou-o e lançou-o em produção. O elemento mais importante é sua própria unidade de distribuição de líquidos (CDU), que a empresa estima ser mais produtiva e econômica do que as soluções prontas disponíveis no mercado.
Fonte da imagem: Amazon
A AWS enfatiza que foi projetado especificamente para tarefas de hiperescala, o que reduziu custos e aumentou a eficiência. O primeiro sistema foi testado no centro de pesquisa da AWS e, posteriormente, instalado em um data center existente. No verão de 2025, a implementação em larga escala do sistema deverá começar – ele será instalado em um número crescente de data centers da empresa, levando em consideração as necessidades modernas da infraestrutura de computação com uso intensivo de recursos.
No final de 2024, foi noticiado que a Amazon havia introduzido uma nova arquitetura de data center de IA, energeticamente eficiente e ecologicamente correta. Em particular, foi noticiado que as novas soluções estavam relacionadas ao fornecimento de energia e ao resfriamento — o sistema de resfriamento líquido deveria ser instalado até mesmo nas instalações existentes da gigante de TI. Vale ressaltar que os novos aceleradores Tranium 3 exigem sistemas de resfriamento eficientes — seu consumo de energia pode chegar a 1.000 W.
Apenas uma semana após sua conquista anterior, o Steam, serviço de distribuição digital da empresa…
Esta semana, o Google apresentou um novo padrão aberto, chamado Universal Commerce Protocol (UCP), projetado…
Os representantes da indústria de IA da China mostram-se bastante cautelosos quanto às perspectivas de…
A Cougar apresentou sua nova série de fontes de alimentação modulares Polar V2 na CES…
A MSI lançará não uma, mas três versões de sua placa de vídeo topo de…
Empresas que desenvolvem tecnologias de inteligência artificial estão buscando maneiras adequadas de monetizar serviços pelos…