Segundo o The Wall Street Journal, a Nvidia pretende lançar um novo processador projetado especificamente para ajudar a OpenAI e outros clientes a criar aplicativos mais rápidos e eficientes com base em modelos de IA treinados. Anteriormente, os produtos da empresa eram focados principalmente no treinamento de IA.
Fonte da imagem: nvidia.com
A Nvidia está desenvolvendo um novo sistema para inferência — executando modelos de IA à medida que respondem a consultas do usuário. A nova plataforma, que a empresa apresentará na conferência de desenvolvedores Nvidia GTC em março, incluirá um chip desenvolvido pela startup Groq. A competição nesse campo está se intensificando — Google e Amazon já criaram seus próprios aceleradores capazes de competir com os produtos da Nvidia. A situação é agravada pelo crescimento explosivo da programação intuitiva — a criação de software por sistemas de IA com base em consultas de texto do usuário.
A OpenAI já concordou em ser uma das maiores clientes do novo processador, segundo fontes, e isso representa uma grande vitória para a Nvidia. Um dia antes, a desenvolvedora do ChatGPT insinuou esse projeto ao anunciar um grande acordo para adquirir “capacidade de inferência dedicada” da Nvidia, bem como um investimento de US$ 30 bilhões da fabricante de telecomunicações. A empresa também assinou um acordo para usar os aceleradores de IA Amazon Trainium.
A Nvidia domina o mercado de unidades de processamento gráfico (GPUs) — chips capazes de executar bilhões de tarefas simples simultaneamente. Suas famílias de GPUs Hopper, Blackwell e Rubin são consideradas as melhores para treinamento de IA, e analistas estimam que a participação da empresa no mercado global seja de pelo menos 90%. O CEO Jensen Huang afirma que os produtos da Nvidia são igualmente adequados tanto para treinamento quanto para inferência. No entanto, desenvolvedores de agentes de IA e outros aplicativos baseados em IA estão começando a perceber que, em comparação com os designs da concorrência, os chips da Nvidia são muito caros, consomem muita energia e não são tão adequados para executar aplicativos já complexos.modelos treinados.
Em janeiro, a OpenAI firmou uma parceria com a startup Cerebras, oferecendo um chip focado em inferência que, segundo a empresa, é mais rápido que os aceleradores da Nvidia. A OpenAI iniciou as negociações com a Cerebras no outono passado, quando os engenheiros da empresa solicitaram hardware mais rápido para aplicações de codificação baseadas em agentes. No ano passado, a Nvidia fechou um acordo de US$ 20 bilhões com a startup Groq, licenciando sua tecnologia e contratando executivos de alto escalão, incluindo seu fundador. A Groq desenvolveu chips baseados em uma arquitetura fundamentalmente diferente, incorporando “unidades de processamento de linguagem” altamente eficientes para tarefas de inferência. Até o momento, a Nvidia não se pronunciou sobre suas intenções de utilizar esses recursos.
Uma das áreas mais demandadas em IA é a geração de código. O Anthropic Claude Code, que roda nas infraestruturas de nuvem da Amazon e do Google, é considerado líder nesse segmento, mas o OpenAI Codex, que rodará na nova infraestrutura da Nvidia, também está em desenvolvimento ativo. A Nvidia também firmou um acordo com a Meta✴ para sistemas de IA de inferência para segmentação de anúncios — uma tarefa que é realizada com maior eficiência em CPUs.
A Oppo e a Honor em breve apresentarão smartphones dobráveis que, espera-se, não terão nenhuma…
Cientistas chineses publicaram um artigo na revista Nature que pode desencadear uma revolução nas baterias…
A OpenAI demitiu um funcionário por usar informações confidenciais sobre negociações realizadas em mercados de…
O Google propôs uma solução que poderia ajudar a proteger os certificados necessários para o…
Este ano, a TrendForce estima que os oito maiores provedores de nuvem do mundo —…
Altos funcionários dos EUA afirmaram repetidamente que um segundo pouso lunar da China antes dos…