A OpenAI, que ficou famosa por seu chatbot de IA ChatGPT, vem trabalhando com a Broadcom há vários meses para criar seu primeiro acelerador de IA, escreve a Reuters, citando suas próprias fontes. Segundo eles, para isso, a OpenAI formou uma equipe de desenvolvedores de chips composta por cerca de 20 pessoas, incluindo os principais especialistas que já participaram da criação de unidades de processamento de tensores (TPUs) no Google, incluindo Thomas Norrie e Richard Ho.
Está sendo dada especial atenção à capacidade do acelerador de executar redes neurais previamente treinadas, inferência, já que os analistas prevêem que a necessidade de chips de inferência poderá superar a demanda por aceleradores de IA para modelos de treinamento à medida que mais aplicações de IA forem implantadas. A previsão é que a produção do novo chip nas instalações da fabricante taiwanesa TSMC comece em 2026.
Fontes da agência também souberam dos planos da OpenAI de começar a usar chips AMD AI junto com aceleradores Nvidia por meio da plataforma de nuvem Microsoft Azure para atender às crescentes necessidades de infraestrutura de IA. Estamos falando dos aceleradores AMD Instinct MI300.
Os aceleradores Nvidia representam atualmente mais de 80% da participação de mercado dos aceleradores de IA. Mas a escassez e o aumento dos custos estão a forçar grandes clientes como a Microsoft, a Meta✴ e agora a OpenAI a procurar alternativas, tanto interna como externamente. No entanto, no futuro próximo, a OpenAI continuará a contar principalmente com soluções da Nvidia para treinamento e inferência de modelos.