O envolvimento ativo da OpenAI em seus “acordos de parceria” aparentemente não deixou o Google imune, e a empresa agora tenta usar seus recursos financeiros para atrair novos clientes para adquirir seus aceleradores proprietários para sistemas de IA. Os concorrentes estão céticos em relação à iniciativa do Google, e a escassez de componentes está dificultando ainda mais sua implementação.

Fonte da imagem: Google
O Wall Street Journal, citando fontes confiáveis, noticiou que o Google pretende estimular a demanda por seus próprios chips de IA. Os principais provedores de nuvem estão focando principalmente em aceleradores da Nvidia, o que dificulta a promoção das unidades de processamento neural TPU pelo Google. A empresa decidiu mirar em novos players de nuvem (neocloud) e incentivar a compra de seus próprios aceleradores, participando financeiramente do desenvolvimento de negócios dessas empresas.
Segundo a fonte, o Google está negociando um investimento de US$ 100 milhões na startup de nuvem Fluidstack, como parte de um acordo avaliado em US$ 7,5 bilhões. Uma das condições do acordo seria o uso de soluções de hardware do Google pela Fluidstack em sua infraestrutura de computação. De acordo com algumas reportagens, o Google também estaria se preparando para fornecer apoio financeiro a diversos projetos de mineração de criptomoedas que estão sendo reorientados para a construção de data centers. Além disso, discussões internas estariam em andamento sobre a possibilidade de conceder à unidade de desenvolvimento do acelerador TPU uma relativa independência estrutural. Isso permitiria, entre outras coisas, atrair capital de terceiros para a criação desses chips. O Google nega tais intenções. Desde 2018, o Google oferece aos seus clientes de nuvem acesso ao poder computacional baseado em TPU. No entanto, a maior parte da infraestrutura de nuvem do Google ainda depende de aceleradores da Nvidia. Segundo alguns relatos, o Google já está oferecendo seus próprios aceleradores TPU a clientes terceirizados, que então constroem sua própria infraestrutura computacional utilizando-os. Amin, chefe de desenvolvimento de TPU.Amin Vahdat foi recentemente promovido a Diretor de Tecnologia para Infraestrutura de IA no Google, reportando-se diretamente ao CEO Sundar Pichai.
A expansão do negócio de TPUs continua limitada pela capacidade de produção da TSMC, que prioriza as necessidades da concorrente Nvidia. A escassez de RAM também impede a empresa de expandir sua infraestrutura baseada em TPUs no ritmo desejado. Apesar disso, grandes empresas estão demonstrando interesse nos aceleradores do Google, com rumores ligando-as à Meta✴Platforms e à Anthropic. No entanto, a Amazon (AWS) vê o Google apenas como concorrente e, portanto, não tem pressa em adotar TPUs, especialmente porque está desenvolvendo seus próprios processadores Graviton. O mesmo pode ser dito da Microsoft e seu serviço de nuvem Azure.