Desde o anúncio da arquitetura Zen e o surgimento dos processadores EPYC, podemos contar o início do retorno da AMD ao mercado de servidores e HPC. Muitos proprietários de data centers e designers de supercomputadores estão escolhendo cada vez mais a AMD, mas a empresa também busca solidificar sua posição no mercado de inteligência de máquina, que há muito é dominado pela NVIDIA com seu ecossistema CUDA.
E estamos falando de conquistar todos os segmentos, desde a área de computação periférica até grandes sistemas em nuvem, para os quais a empresa já tem “o silício e o software necessários” à sua disposição. Isso é exatamente o que os Reds fizeram no evento Financial Analyst Day 2022. A CEO da AMD, Lisa Su, observou que há muito trabalho a ser feito, mas as oportunidades de crescimento que estão se abrindo valem a pena. A ofensiva já começou: há interesse em processadores EPYC para uso em sistemas de inferência e aceleradores Instinct para treinamento de redes neurais.
Cobertura de mercado de sistemas de IA e aprendizado de máquina com soluções AMD. Fonte: AMD
Com o Instinct, tudo está claro, hoje é um dos aceleradores mais poderosos em termos de desempenho “puro”, mas o EPYC conseguiu um sério aumento na velocidade de execução de cargas de inferência graças em grande parte ao ZenDNN (Zen Deep Neural Network) biblioteca. Essa biblioteca é totalmente integrada às estruturas populares TensorFlow, PyTorch e ONNXRT.
Ele é suportado por processadores EPYC desde a segunda geração, mas a empresa irá mais longe na introdução de elementos de IA em novas gerações de processadores no nível de hardware. Estamos falando, entre outras coisas, do suporte ao AVX-512 VNNI, que aparecerá no EPYC Genoa e no Ryzen 7000. Anteriormente, apenas os processadores Intel podiam se orgulhar de oferecer suporte a essas instruções, que investe ativamente no desenvolvimento de software há vários anos.
Arquitetura XDNA adaptável. Fonte: AMD
Outra maneira é usar chiplets baseados em blocos Xilinx. Esta iniciativa chama-se XDNA Adaptive Architecture. Os blocos de necessidade apareceram na série Versal em 2018, e agora a AMD pretende fornecer um mecanismo de IA semelhante aos laptops Ryzen: Phoenix Point (2023) e Strix Point (2024). A mesma tecnologia aparecerá no EPYC, mas o momento exato ainda não foi especificado, mas é relatado que chips com a arquitetura Zen 5 com novas otimizações para aprendizado de máquina serão lançados em 2024.
Os planos para o portfólio Xilinx não param por aí. As soluções baseadas em matrizes Zynq têm sido usadas ativamente na indústria, saúde, sistemas de transporte e indústrias inteligentes. O mesmo se aplica ao mercado de telecomunicações usando Xilinx Versal e data centers em nuvem, onde os aceleradores Alveo e FPGAs Kintex são bastante utilizados. E a AMD não vai deixar esses setores de mercado de forma alguma.
Áreas e indústrias que podem ser cobertas pelas soluções AMD. Fonte: AMD
A empresa também está preparando ativamente o terreno para a chegada de sua primeira APU para servidor Instinct MI300. Por exemplo, o pacote ROCm recebeu otimizações para cenários de treinamento e inferência em PyTorch e TensorFlow e agora pode ser executado em modelos Radeon de consumidor com arquitetura RDNA. A AMD também está desenvolvendo SDKs com modelos pré-otimizados para facilitar o desenvolvimento e a implantação de aplicativos de IA.
Podemos dizer que a cobertura do mercado de IA e machine learning da AMD será baseada em três pilares: processadores Ryzen e EPYC para modelos de pequeno e médio volume; futuro EPYC com blocos de IA e aceleradores baseados em Radeon e Versal para modelos médios e grandes; aceleradores e APUs Instinct, juntamente com chips adaptativos Xilinx para modelos grandes e extragrandes.
Consolidação de todas as tecnologias de IA disponíveis da AMD em uma única pilha de software. Fonte: AMD
E para uma melhor consolidação, a AMD está combinando ativamente ferramentas de software anteriormente independentes para todos os tipos de computadores em um único array. Nisso, ela coopera ativamente com outras empresas, incluindo gigantes como Microsoft e Meta *. O conceito do Unified AI Stack continuará a evoluir, incluindo cada vez mais novos componentes, para que, no final, o desenvolvedor de sistemas de inteligência de máquina possa usar um único conjunto de ferramentas que suporte todas as tecnologias AMD AI. A Intel está se movendo na mesma direção com sua iniciativa oneAPI.
* Está incluído na lista de associações públicas e organizações religiosas em relação às quais o tribunal tomou uma decisão final para liquidar ou proibir atividades com base na Lei Federal nº 114-FZ de 25 de julho de 2002 “Sobre o combate ao extremismo atividade”.
A Scality, especialista em armazenamento definido por software (SDS), revelou detalhes de uma nova classe…
A Stardust Solutions, empresa especializada em tecnologias de geoengenharia, propôs uma solução que, segundo ela,…
A Figure AI relatou que, durante os testes, seus robôs humanoides operaram por mais de…
A Comissão Federal de Comércio dos EUA (FTC, na sigla em inglês) iniciou uma investigação…
Um overclocker chinês apelidado de "Wytiwx" estabeleceu um novo recorde mundial de overclock de CPU,…
Em uma versão de teste do Windows lançada recentemente, os desenvolvedores implementaram diversos recursos muito…