AMD e Intel esperam competir com a Nvidia em uma nova etapa no desenvolvimento de sistemas de inteligência artificial

A Nvidia é hoje líder indiscutível no mercado de aceleradores computacionais usados ​​para treinar grandes modelos de linguagem, controlando mais de 90% do segmento. Os concorrentes Intel e AMD estão tentando combatê-lo com suas próprias soluções, mas só terão alguma chance de sucesso à medida que os aceleradores focados na formação de conclusões lógicas se tornarem mais difundidos.

Fonte da imagem: AMD

Especialistas em IoT Analytics citados pela Nikkei Asian Review estimam que a participação da AMD no mercado de GPU para servidores seja de 3%, enquanto a Nvidia controla mais de 90%. Se o primeiro ganhou US$ 6,5 bilhões no ano passado com a venda de todos os seus componentes de servidor, o último recebeu US$ 47,5 bilhões em receitas nesta área. No último trimestre, a Nvidia gerou US$ 22,6 bilhões em receita de servidores, um aumento de 427% em relação ao mesmo período do ano passado. Durante esse período, a AMD ganhou no máximo US$ 2,3 bilhões, embora tenha garantido um crescimento de receita de 80%. Os resultados da Intel são apenas um pouco melhores: no ano passado ela faturou US$ 15,5 bilhões no segmento de servidores, principalmente devido à venda de processadores centrais, e no primeiro trimestre deste ano sua receita não ultrapassou US$ 3 bilhões, um aumento de apenas 5%.

O chefe do negócio de servidores da AMD, Andrew Dieckmann, admitiu que a Nvidia é agora líder de mercado em termos de participação, mas para que a AMD progrida, é primeiro importante provar aos clientes que a empresa é um “número dois” estável.

No segmento de PCs clientes, a otimização dos recursos do assistente Microsoft Copilot é mais rápida para os processadores Qualcomm, o que dá a esta empresa uma chance definitiva de aumentar sua participação de mercado em um segmento em crescimento. Os representantes da Intel acreditam que até 2028, até 80% dos PCs vendidos suportarão a aceleração dos sistemas de inteligência artificial. Este ano a empresa planeja fornecer mais de 40 milhões de processadores centrais correspondentes e no próximo ano o número aumentará para mais de 100 milhões de unidades. A AMD não tem pressa em dar as suas previsões sobre o ritmo de expansão da oferta, mas isso não significa que não tenha ambições nesta área. Representantes da Counterpoint Research alertam que o mercado de PCs está bastante saturado de players e ofertas e não crescerá imediatamente para US$ 1 trilhão em faturamento anual. No início, será altamente fragmentado e manterá baixas taxas de crescimento.

Ao mesmo tempo, os concorrentes da Nvidia ainda têm a oportunidade de espremer esta empresa no fornecimento de aceleradores computacionais focados não no treinamento de modelos de linguagem, mas na geração de inferências lógicas. Este tipo de operação requer recursos computacionais mais modestos e custos de energia mais moderados. Os analistas do Bank of America acreditam que os clientes dos fornecedores de aceleradores de computação estão otimizando custos em muitas áreas, e aqui os concorrentes da Nvidia têm a chance de ocupar seu lugar no mercado.

Segundo representantes da Intel, para que os sistemas de inteligência artificial alcancem uma cobertura adequada do mercado, os clientes corporativos devem estar interessados ​​neles, e eles só precisam de soluções que lhes permitam tirar conclusões lógicas no processamento da informação. A Intel está ativamente interessada neste segmento de mercado e planeja estar presente nele. O treinamento de modelos linguísticos envolve gastar dinheiro no processo, e as empresas estão interessadas em ganhar dinheiro, portanto, as soluções de inferência são mais adequadas para elas. Ao enviar aceleradores Gaudi 3 este ano, a Intel espera oferecer o melhor custo total de propriedade possível.

Os representantes da AMD também acreditam que o segmento de inferência oferece mais oportunidades de ganhar dinheiro, pois crescerá com o tempo, à medida que as empresas começarem a lucrar com sistemas de inteligência artificial criados anteriormente. As soluções AMD da família Instinct MI300X possuem um subsistema de memória bastante poderoso, e isso é conseguido sem o uso de chips HBM3E, que já estão incluídos nos aceleradores Nvidia H200. O layout dos chips AMD permite que a empresa coloque mais memória em um único acelerador do que a Nvidia consegue, e com a transição para o HBM3E essa vantagem só aumentará.

Por outro lado, a Nvidia também não está ociosa, e seus aceleradores são cada vez mais utilizados na área de sistemas de inteligência artificial que envolvem a formação de conclusões lógicas. Nos quatro trimestres anteriores, esses aceleradores representaram até 40% da receita de servidores da Nvidia. O chefe da empresa, Jensen Huang, está convencido de que mesmo que os aceleradores dos concorrentes fossem distribuídos gratuitamente, as ofertas da Nvidia ainda seriam mais lucrativas em termos de custos operacionais. Assim, ele não tem muito medo da concorrência.

avalanche

Postagens recentes

O Apple iOS 18 permitirá que você crie emojis personalizados instantaneamente usando IA

A Apple está se preparando para apresentar uma nova versão do sistema operacional móvel iOS…

4 horas atrás

O fabricante de placas de vídeo PowerColor retirou sua marca chinesa Dataland

A TUL Corporation, conhecida como fabricante de placas de vídeo das marcas PowerColor, VTX3D (Europa)…

6 horas atrás

Apple vai liberar IA para transcrever e fazer anotações em reuniões e palestras

Os aplicativos de anotações da Apple ficarão mais inteligentes. O iOS 18 contará com transcrição…

10 horas atrás

Chegou o Windows 11, que não requer TPM, Secure Boot e até DirectX

A Microsoft publicou os requisitos de sistema para a nova versão do sistema operacional Windows…

13 horas atrás

Meta está preparando uma versão paga de seu assistente de IA com recursos avançados

Meta✴ está explorando a possibilidade de introduzir uma assinatura paga para seu assistente inteligente Meta✴…

15 horas atrás