A OpenAI e a Nvidia são amplamente consideradas as principais beneficiárias do boom da IA ​​e mantêm uma forte parceria que deverá ser reforçada pelo acordo de US$ 100 bilhões. Fontes, no entanto, indicam que a OpenAI pode não estar satisfeita com o desempenho dos aceleradores da Nvidia em inferência e, portanto, está buscando uma alternativa adequada.

Fonte da imagem: Nvidia

A Reuters obteve essa informação por meio de seus próprios canais, embora a OpenAI e a Nvidia continuem a expressar publicamente extrema lealdade mútua. Segundo a fonte, a OpenAI gostaria de substituir até 10% dos aceleradores em sua infraestrutura de computação por soluções de terceiros que apresentem melhor desempenho em tarefas de inferência — ou seja, que trabalhem de forma mais eficiente com grandes modelos de linguagem já treinados.

A OpenAI chegou a considerar o fornecimento de chips desenvolvidos pela Cerebras e pela Groq para essas startups, mas a Nvidia decidiu antecipar o negócio adquirindo a Groq por US$ 20 bilhões no ano passado. A Groq já havia negociado com outros investidores para investir até US$ 14 bilhões, mas a Nvidia ofereceu mais, garantindo uma estrutura de negócio bastante específica. Pelos termos, a Groq manteve a opção de licenciar seus desenvolvimentos para outras empresas, mas a Nvidia efetivamente incorporou os principais desenvolvedores de aceleradores da Groq. A Groq agora pode oferecer a outras empresas apenas software em nuvem. Ao mesmo tempo, surgem questionamentos sobre a viabilidade do negócio, no qual a Nvidia se ofereceu para investir até US$ 100 bilhões no capital da OpenAI. Até o momento, as partes negaram qualquer problema nessa área, embora a Nvidia enfatize que seus compromissos não são rígidos.

A OpenAI concluiu com sucesso um acordo com a Cerebras e agora adquirirá os chamados “aceleradores rei” da empresa, que apresentam bom desempenho em tarefas de inferência. O problema da OpenAI até então era sua forte dependência de aceleradores da Nvidia e da AMD, que utilizam hardware externo, embora muito rápido.A memória HBM, por exemplo, oferece melhor desempenho em inferência, enquanto chips com memória integrada maior apresentam melhor desempenho. Essas soluções são oferecidas pela Groq e Cerebras, bem como pela concorrente Google. Curiosamente, a Anthropic conseguiu fechar um acordo com o Google, o que obrigou a OpenAI a buscar alternativas.

Segundo alguns relatos, a OpenAI encontrou ineficiência nos aceleradores da Nvidia ao criar o agente de IA Codex, que auxilia desenvolvedores na escrita de código. Usuários comuns do ChatGPT, por exemplo, não enfrentam esses problemas, mas a OpenAI buscará oferecer outras soluções de hardware para programadores, como as da Cerebras, para melhorar o desempenho das ferramentas de software correspondentes.

admin

Compartilhar
Publicado por
admin

Postagens recentes

O Discord adiou o lançamento global da verificação de idade, mas apenas por um curto período.

O Discord não implementará a verificação de idade global em sua plataforma no próximo mês,…

2 horas atrás

O Twitch abandonou as suspensões do tipo “tudo ou nada” e está separando as punições.

O Twitch anunciou uma revisão do seu sistema de penalidades por violação das diretrizes da…

2 horas atrás

A OpenAI admitiu que a IA ainda não penetrou verdadeiramente no mundo dos negócios – e explicou porquê.

Brad Lightcap, COO da OpenAI, fez uma declaração surpreendente durante uma conferência de tecnologia em…

2 horas atrás

O plano Premium mais barato do YouTube agora oferece streaming em segundo plano e downloads de vídeos.

O YouTube adicionou suporte à reprodução em segundo plano e a possibilidade de baixar vídeos…

3 horas atrás

A Anthropic treinou sua plataforma de IA, Claude Cowork, para lidar com uma ampla gama de tarefas de escritório.

A Anthropic anunciou uma atualização para sua plataforma Claude Cowork, que permite que a inteligência…

3 horas atrás

A SambaNova apresentou o acelerador de IA SN50 e anunciou uma parceria ampliada com a Intel.

A SambaNova apresentou seus aceleradores de IA SN50 de quinta geração, baseados em sua RDU…

3 horas atrás