Nesta terça-feira, a chefe da AMD Lisa Su (Lisa Su) em um evento especial previsivelmente demonstrou uma amostra do acelerador de computação MI300X, que começará a ser entregue aos clientes antes do final deste ano. Em comparação com a solução concorrente NVIDIA H100, ela oferece suporte para até 192 GB de memória versus 120 GB, respectivamente.

“Fonte da imagem: Getty Images, David Becker”

Durante a demonstração das capacidades dos aceleradores baseados no MI300X, foi mostrada sua capacidade de trabalhar com um modelo de linguagem para inteligência artificial contendo 40 bilhões de parâmetros. Para efeito de comparação, a conhecida startup GPT-3 OpenAI possui 175 bilhões de parâmetros. Como explicou Lisa Su, os modelos de linguagem tornam-se significativamente maiores por esse critério, portanto, os desenvolvedores precisarão de várias GPUs ao mesmo tempo para trabalhar com um modelo. É verdade que, devido ao suporte para mais memória, o AMD MI300X é capaz de reduzir a necessidade de aceleradores adicionais.

O suporte para a Arquitetura Infinity permite que os clientes da AMD combinem até oito aceleradores MI300X em um sistema. As soluções concorrentes da NVIDIA contam com o ecossistema de software CUDA para desenvolver aplicativos que formam o sistema de IA, enquanto a AMD conta com a plataforma ROCm, que funciona com um ecossistema aberto de modelos. Arquitetonicamente, o MI300X é baseado nos núcleos de arquitetura Zen 4 e CDNA 3, complementando-os com até oito pilhas de memória HBM3. O número total de transistores em um substrato do acelerador MI300X chega a 153 bilhões de peças. A solução AMD também supera o produto NVIDIA em termos de largura de banda de memória, que chega a 5,2 TB / s, e a interface Infinity Fabric transfere até 896 GB de informações por segundo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *