A Nvidia é hoje líder indiscutível no mercado de aceleradores computacionais usados para treinar grandes modelos de linguagem, controlando mais de 90% do segmento. Os concorrentes Intel e AMD estão tentando combatê-lo com suas próprias soluções, mas só terão alguma chance de sucesso à medida que os aceleradores focados na formação de conclusões lógicas se tornarem mais difundidos.
Especialistas em IoT Analytics citados pela Nikkei Asian Review estimam que a participação da AMD no mercado de GPU para servidores seja de 3%, enquanto a Nvidia controla mais de 90%. Se o primeiro ganhou US$ 6,5 bilhões no ano passado com a venda de todos os seus componentes de servidor, o último recebeu US$ 47,5 bilhões em receitas nesta área. No último trimestre, a Nvidia gerou US$ 22,6 bilhões em receita de servidores, um aumento de 427% em relação ao mesmo período do ano passado. Durante esse período, a AMD ganhou no máximo US$ 2,3 bilhões, embora tenha garantido um crescimento de receita de 80%. Os resultados da Intel são apenas um pouco melhores: no ano passado ela faturou US$ 15,5 bilhões no segmento de servidores, principalmente devido à venda de processadores centrais, e no primeiro trimestre deste ano sua receita não ultrapassou US$ 3 bilhões, um aumento de apenas 5%.
O chefe do negócio de servidores da AMD, Andrew Dieckmann, admitiu que a Nvidia é agora líder de mercado em termos de participação, mas para que a AMD progrida, é primeiro importante provar aos clientes que a empresa é um “número dois” estável.
No segmento de PCs clientes, a otimização dos recursos do assistente Microsoft Copilot é mais rápida para os processadores Qualcomm, o que dá a esta empresa uma chance definitiva de aumentar sua participação de mercado em um segmento em crescimento. Os representantes da Intel acreditam que até 2028, até 80% dos PCs vendidos suportarão a aceleração dos sistemas de inteligência artificial. Este ano a empresa planeja fornecer mais de 40 milhões de processadores centrais correspondentes e no próximo ano o número aumentará para mais de 100 milhões de unidades. A AMD não tem pressa em dar as suas previsões sobre o ritmo de expansão da oferta, mas isso não significa que não tenha ambições nesta área. Representantes da Counterpoint Research alertam que o mercado de PCs está bastante saturado de players e ofertas e não crescerá imediatamente para US$ 1 trilhão em faturamento anual. No início, será altamente fragmentado e manterá baixas taxas de crescimento.
Ao mesmo tempo, os concorrentes da Nvidia ainda têm a oportunidade de espremer esta empresa no fornecimento de aceleradores computacionais focados não no treinamento de modelos de linguagem, mas na geração de inferências lógicas. Este tipo de operação requer recursos computacionais mais modestos e custos de energia mais moderados. Os analistas do Bank of America acreditam que os clientes dos fornecedores de aceleradores de computação estão otimizando custos em muitas áreas, e aqui os concorrentes da Nvidia têm a chance de ocupar seu lugar no mercado.
Segundo representantes da Intel, para que os sistemas de inteligência artificial alcancem uma cobertura adequada do mercado, os clientes corporativos devem estar interessados neles, e eles só precisam de soluções que lhes permitam tirar conclusões lógicas no processamento da informação. A Intel está ativamente interessada neste segmento de mercado e planeja estar presente nele. O treinamento de modelos linguísticos envolve gastar dinheiro no processo, e as empresas estão interessadas em ganhar dinheiro, portanto, as soluções de inferência são mais adequadas para elas. Ao enviar aceleradores Gaudi 3 este ano, a Intel espera oferecer o melhor custo total de propriedade possível.
Os representantes da AMD também acreditam que o segmento de inferência oferece mais oportunidades de ganhar dinheiro, pois crescerá com o tempo, à medida que as empresas começarem a lucrar com sistemas de inteligência artificial criados anteriormente. As soluções AMD da família Instinct MI300X possuem um subsistema de memória bastante poderoso, e isso é conseguido sem o uso de chips HBM3E, que já estão incluídos nos aceleradores Nvidia H200. O layout dos chips AMD permite que a empresa coloque mais memória em um único acelerador do que a Nvidia consegue, e com a transição para o HBM3E essa vantagem só aumentará.
Por outro lado, a Nvidia também não está ociosa, e seus aceleradores são cada vez mais utilizados na área de sistemas de inteligência artificial que envolvem a formação de conclusões lógicas. Nos quatro trimestres anteriores, esses aceleradores representaram até 40% da receita de servidores da Nvidia. O chefe da empresa, Jensen Huang, está convencido de que mesmo que os aceleradores dos concorrentes fossem distribuídos gratuitamente, as ofertas da Nvidia ainda seriam mais lucrativas em termos de custos operacionais. Assim, ele não tem muito medo da concorrência.