A AMD planejou um ataque maciço ao mercado de aprendizado de máquina e IA

Desde o anúncio da arquitetura Zen e o surgimento dos processadores EPYC, podemos contar o início do retorno da AMD ao mercado de servidores e HPC. Muitos proprietários de data centers e designers de supercomputadores estão escolhendo cada vez mais a AMD, mas a empresa também busca solidificar sua posição no mercado de inteligência de máquina, que há muito é dominado pela NVIDIA com seu ecossistema CUDA.

E estamos falando de conquistar todos os segmentos, desde a área de computação periférica até grandes sistemas em nuvem, para os quais a empresa já tem “o silício e o software necessários” à sua disposição. Isso é exatamente o que os Reds fizeram no evento Financial Analyst Day 2022. A CEO da AMD, Lisa Su, observou que há muito trabalho a ser feito, mas as oportunidades de crescimento que estão se abrindo valem a pena. A ofensiva já começou: há interesse em processadores EPYC para uso em sistemas de inferência e aceleradores Instinct para treinamento de redes neurais.

Cobertura de mercado de sistemas de IA e aprendizado de máquina com soluções AMD. Fonte: AMD

Com o Instinct, tudo está claro, hoje é um dos aceleradores mais poderosos em termos de desempenho “puro”, mas o EPYC conseguiu um sério aumento na velocidade de execução de cargas de inferência graças em grande parte ao ZenDNN (Zen Deep Neural Network) biblioteca. Essa biblioteca é totalmente integrada às estruturas populares TensorFlow, PyTorch e ONNXRT.

Ele é suportado por processadores EPYC desde a segunda geração, mas a empresa irá mais longe na introdução de elementos de IA em novas gerações de processadores no nível de hardware. Estamos falando, entre outras coisas, do suporte ao AVX-512 VNNI, que aparecerá no EPYC Genoa e no Ryzen 7000. Anteriormente, apenas os processadores Intel podiam se orgulhar de oferecer suporte a essas instruções, que investe ativamente no desenvolvimento de software há vários anos.

Arquitetura XDNA adaptável. Fonte: AMD

Outra maneira é usar chiplets baseados em blocos Xilinx. Esta iniciativa chama-se XDNA Adaptive Architecture. Os blocos de necessidade apareceram na série Versal em 2018, e agora a AMD pretende fornecer um mecanismo de IA semelhante aos laptops Ryzen: Phoenix Point (2023) e Strix Point (2024). A mesma tecnologia aparecerá no EPYC, mas o momento exato ainda não foi especificado, mas é relatado que chips com a arquitetura Zen 5 com novas otimizações para aprendizado de máquina serão lançados em 2024.

Os planos para o portfólio Xilinx não param por aí. As soluções baseadas em matrizes Zynq têm sido usadas ativamente na indústria, saúde, sistemas de transporte e indústrias inteligentes. O mesmo se aplica ao mercado de telecomunicações usando Xilinx Versal e data centers em nuvem, onde os aceleradores Alveo e FPGAs Kintex são bastante utilizados. E a AMD não vai deixar esses setores de mercado de forma alguma.

Áreas e indústrias que podem ser cobertas pelas soluções AMD. Fonte: AMD

A empresa também está preparando ativamente o terreno para a chegada de sua primeira APU para servidor Instinct MI300. Por exemplo, o pacote ROCm recebeu otimizações para cenários de treinamento e inferência em PyTorch e TensorFlow e agora pode ser executado em modelos Radeon de consumidor com arquitetura RDNA. A AMD também está desenvolvendo SDKs com modelos pré-otimizados para facilitar o desenvolvimento e a implantação de aplicativos de IA.

Podemos dizer que a cobertura do mercado de IA e machine learning da AMD será baseada em três pilares: processadores Ryzen e EPYC para modelos de pequeno e médio volume; futuro EPYC com blocos de IA e aceleradores baseados em Radeon e Versal para modelos médios e grandes; aceleradores e APUs Instinct, juntamente com chips adaptativos Xilinx para modelos grandes e extragrandes.

Consolidação de todas as tecnologias de IA disponíveis da AMD em uma única pilha de software. Fonte: AMD

E para uma melhor consolidação, a AMD está combinando ativamente ferramentas de software anteriormente independentes para todos os tipos de computadores em um único array. Nisso, ela coopera ativamente com outras empresas, incluindo gigantes como Microsoft e Meta *. O conceito do Unified AI Stack continuará a evoluir, incluindo cada vez mais novos componentes, para que, no final, o desenvolvedor de sistemas de inteligência de máquina possa usar um único conjunto de ferramentas que suporte todas as tecnologias AMD AI. A Intel está se movendo na mesma direção com sua iniciativa oneAPI.

* Está incluído na lista de associações públicas e organizações religiosas em relação às quais o tribunal tomou uma decisão final para liquidar ou proibir atividades com base na Lei Federal nº 114-FZ de 25 de julho de 2002 “Sobre o combate ao extremismo atividade”.

avalanche

Postagens recentes

NASA convida a todos para ajudar na busca de exoplanetas: se você não tem seu próprio telescópio, basta um smartphone

A NASA anunciou o acesso gratuito para todos ao programa Exoplanet Watch (“Observação de exoplanetas”).…

1 semana atrás

Fabricante de carros elétricos Rivian perde vários executivos seniores

No início de janeiro, soube-se que a jovem montadora americana Rivian produziu 24.337 veículos elétricos…

1 semana atrás