A OpenAI começou a usar os aceleradores TPU AI do Google para alimentar seu chatbot ChatGPT AI e serviços relacionados, marcando seu primeiro movimento significativo de deixar de usar exclusivamente chips Nvidia como parte de uma estratégia para reduzir sua dependência da infraestrutura executada pela Microsoft, informou o The Information.

Fonte da imagem: Mariia Shalabaieva/unsplash.com
A OpenAI está alugando unidades de processamento tensorial (TPUs) do Google Cloud para reduzir os custos associados à computação inferencial — o processo de usar um modelo de IA para gerar resultados em resposta a consultas após o treinamento. A decisão da OpenAI de usar as TPUs do Google pode impulsionar seu status como uma alternativa econômica às GPUs amplamente utilizadas da Nvidia, que domina o mercado de aceleradores de IA, observou o investing.com.
A OpenAI já utilizou hardware baseado em Nvidia para treinar e implementar seus modelos de IA, principalmente por meio de parcerias com a Microsoft e a Oracle. O novo parceiro, o Google, embora forneça à OpenAI algum poder computacional baseado em TPU, não está oferecendo as versões mais potentes de seus aceleradores, segundo fontes informaram ao The Information.
Portanto, o Google reservou as versões mais avançadas da TPU para uso interno, incluindo o trabalho em seus próprios modelos de linguagem de grande porte como parte do projeto Gemini. No entanto, para a OpenAI, o acesso a versões ainda mais antigas da TPU representa um passo em direção à diversificação de sua infraestrutura de computação, à medida que a demanda por chips de IA cresce no setor.
Ainda não está claro se a OpenAI usará as TPUs do Google para treinar modelos ou se limitará seu uso apenas à inferência. À medida que a concorrência aumenta e as restrições de recursos se aprofundam, uma infraestrutura híbrida pode dar à empresa mais flexibilidade na forma como utiliza seu poder computacional para escalar.
