O envolvimento ativo da OpenAI em seus “acordos de parceria” aparentemente não deixou o Google imune, e a empresa agora tenta usar seus recursos financeiros para atrair novos clientes para adquirir seus aceleradores proprietários para sistemas de IA. Os concorrentes estão céticos em relação à iniciativa do Google, e a escassez de componentes está dificultando ainda mais sua implementação.
Fonte da imagem: Google
O Wall Street Journal, citando fontes confiáveis, noticiou que o Google pretende estimular a demanda por seus próprios chips de IA. Os principais provedores de nuvem estão focando principalmente em aceleradores da Nvidia, o que dificulta a promoção das unidades de processamento neural TPU pelo Google. A empresa decidiu mirar em novos players de nuvem (neocloud) e incentivar a compra de seus próprios aceleradores, participando financeiramente do desenvolvimento de negócios dessas empresas.
Segundo a fonte, o Google está negociando um investimento de US$ 100 milhões na startup de nuvem Fluidstack, como parte de um acordo avaliado em US$ 7,5 bilhões. Uma das condições do acordo seria o uso de soluções de hardware do Google pela Fluidstack em sua infraestrutura de computação. De acordo com algumas reportagens, o Google também estaria se preparando para fornecer apoio financeiro a diversos projetos de mineração de criptomoedas que estão sendo reorientados para a construção de data centers. Além disso, discussões internas estariam em andamento sobre a possibilidade de conceder à unidade de desenvolvimento do acelerador TPU uma relativa independência estrutural. Isso permitiria, entre outras coisas, atrair capital de terceiros para a criação desses chips. O Google nega tais intenções. Desde 2018, o Google oferece aos seus clientes de nuvem acesso ao poder computacional baseado em TPU. No entanto, a maior parte da infraestrutura de nuvem do Google ainda depende de aceleradores da Nvidia. Segundo alguns relatos, o Google já está oferecendo seus próprios aceleradores TPU a clientes terceirizados, que então constroem sua própria infraestrutura computacional utilizando-os. Amin, chefe de desenvolvimento de TPU.Amin Vahdat foi recentemente promovido a Diretor de Tecnologia para Infraestrutura de IA no Google, reportando-se diretamente ao CEO Sundar Pichai.
A expansão do negócio de TPUs continua limitada pela capacidade de produção da TSMC, que prioriza as necessidades da concorrente Nvidia. A escassez de RAM também impede a empresa de expandir sua infraestrutura baseada em TPUs no ritmo desejado. Apesar disso, grandes empresas estão demonstrando interesse nos aceleradores do Google, com rumores ligando-as à Meta✴Platforms e à Anthropic. No entanto, a Amazon (AWS) vê o Google apenas como concorrente e, portanto, não tem pressa em adotar TPUs, especialmente porque está desenvolvendo seus próprios processadores Graviton. O mesmo pode ser dito da Microsoft e seu serviço de nuvem Azure.
Os desenvolvedores do Kintsugiyama Studio, liderados por Jeff Kaplan, cocriador de Overwatch, anunciaram as datas…
Os sistemas de filtragem de tráfego da Roskomnadzor, utilizados para restringir o acesso a recursos…
Representantes da indústria de semicondutores admitiram ao Nikkei Asian Review que, neste momento, um dos…
Outrora um projeto promissor, o sistema operacional Fuchsia do Google tornou-se praticamente invisível, e suas…
Recentemente, na segunda plataforma de lançamento do complexo espacial Starbase, no Texas, a SpaceX realizou…
Pesquisadores de cibersegurança do Grupo de Inteligência de Ameaças do Google, juntamente com colegas da…