Trabalhe para nós: AWS fornecerá aos cientistas clusters de 40 mil aceleradores Trainium AI

A AWS pretende atrair mais pessoas para desenvolver aplicativos e estruturas de IA usando a família de aceleradores Tranium da Amazon. Como parte da nova iniciativa Build on Trainium, com US$ 110 milhões em financiamento, a academia receberá clusters UltraClaster, incluindo até 40 mil aceleradores, relata o The Register.

Como parte do programa Build on Trainium, está previsto fornecer acesso ao cluster a representantes de universidades que estejam engajadas no desenvolvimento de novos algoritmos de IA que possam aumentar a eficiência do uso de aceleradores e melhorar o escalonamento de cálculos em grandes sistemas distribuídos. . Não está especificado em qual geração de chips, Trainium1 ou Trainium2, os clusters serão construídos.

Fonte da imagem: AWS

Como explica o próprio blog da AWS, os pesquisadores podem criar novas arquiteturas de modelos de IA ou novas tecnologias de otimização de desempenho, mas podem não ter acesso a recursos de HPC para grandes experimentos. Igualmente importante, espera-se que os frutos do trabalho sejam distribuídos através de um modelo de código aberto, para que todo o ecossistema de aprendizagem automática beneficie disto.

No entanto, há pouco altruísmo por parte da AWS. Em primeiro lugar, serão emitidos 110 milhões de dólares para projetos selecionados na forma de empréstimos na nuvem, o que não é a primeira vez que isto acontece. Em segundo lugar, a empresa está, na verdade, a tentar transferir algumas das suas tarefas para outras pessoas. Os chips personalizados da AWS, incluindo aceleradores de IA para treinamento e inferência, foram originalmente desenvolvidos para melhorar a eficiência das tarefas internas da empresa. No entanto, estruturas de baixo nível, etc. O software não foi projetado para ser usado livremente por uma ampla gama de pessoas, como, por exemplo, é o caso do NVIDIA CUDA.

Em outras palavras, para popularizar o Trainium, a AWS precisa de um software mais fácil de aprender e, ainda melhor, de soluções prontas para problemas de aplicação. Não é por acaso que a Intel e a AMD tendem a oferecer aos desenvolvedores estruturas prontas como PyTorch e TensorFlow otimizadas para seus aceleradores, em vez de tentar forçá-los a fazer programação de baixo nível. A AWS faz a mesma coisa com produtos como o SageMaker.

O projeto é em grande parte possível graças à nova Neuron Kernel Interface (NKI) para AWS Tranium e Inferentia, que fornece acesso direto ao conjunto de instruções do chip e permite aos pesquisadores construir kernels de computação otimizados para novos modelos, otimização de desempenho e inovação em geral. No entanto, os cientistas – ao contrário dos desenvolvedores comuns – estão frequentemente interessados ​​em trabalhar com sistemas de baixo nível.

avalanche

Postagens recentes

O Google removerá notícias de editores da UE dos resultados de pesquisa como parte de um experimento

A Google está a lançar uma experiência para remover notícias de editores na União Europeia…

59 minutos atrás

Xiaomi lançou seu 100.000º carro elétrico apenas 230 dias após o início da produção

Tendo iniciado as entregas de veículos elétricos de série do seu modelo de estreia SU7…

2 horas atrás

O YouTube está testando um novo formato para visualização de vídeos longos, como Shorts

O YouTube pode lançar rolagem infinita com reprodução automática para vídeos longos, como Shorts. Quando…

3 horas atrás

YouTube on Quest lança recurso de co-visualização – até 7 amigos em um cinema VR

O aplicativo do YouTube para o headset de realidade virtual Meta✴ Quest recebeu uma atualização…

4 horas atrás

Scooter elétrica com painéis solares Lightfoot aumenta autonomia sem tomadas em 30 km

A empresa norte-americana Otherlab desenvolveu uma scooter elétrica, Lightfoot, alimentada por painéis solares que pode…

4 horas atrás