O negócio mais misterioso de 2025: por que a NVIDIA gastou US$ 20 bilhões na Groq?

O acordo da NVIDIA com a startup de IA Groq, na prática uma aquisição, levantou questionamentos sobre as intenções da líder de mercado em IA. Para evitar aprovação regulatória e investigações antitruste, a NVIDIA disfarçou o acordo como uma licença não exclusiva para a tecnologia da Groq. Como resultado, funcionários-chave da Groq foram transferidos para a NVIDIA, enquanto a equipe restante, liderada pelo CFO, continuará gerenciando a infraestrutura da GroqCloud e provavelmente não manterá a competitividade anterior da startup.

A NVIDIA concluiu um acordo semelhante pouco antes, adquirindo a startup de desenvolvimento de interconexões Enfabrica. No caso da Enfabrica, o negócio foi avaliado em US$ 900 milhões. Essa é uma grande quantia para uma startup em estágio inicial, mas totalmente razoável no cenário atual, segundo o EE Times. A Groq é uma startup maior, mas o negócio também é significativamente mais valioso – US$ 20 bilhões, em comparação com sua avaliação mais recente de US$ 6,9 bilhões.

Embora se suponha que o acordo com a Enfabrica esteja pelo menos parcialmente relacionado a contratações, uma quantia tão alta para a Groq dificilmente se justifica se o objetivo for apenas atrair talentos qualificados. É possível que a NVIDIA planeje fabricar chips da Groq. O CEO da NVIDIA, Jensen Huang, mencionou-os em um e-mail aos funcionários: “Planejamos integrar os processadores de baixa latência da Groq à arquitetura NVIDIA AI Factory, expandindo a plataforma para atender a uma gama ainda maior de cargas de trabalho de inferência de IA e em tempo real.”

Fonte da imagem: Groq

No entanto, na CES 2026, Huang afirmou que a tecnologia Groq não faria parte do portfólio principal de data centers da NVIDIA. “[Groq] é algo completamente diferente, e não espero que substitua o que estamos fazendo com Vera Rubin e nossa próxima geração”, disse Huang. “Contudo, poderíamos incorporar sua tecnologia de uma forma que melhorasse incrementalmente algo que o mundo ainda não conseguiu fazer.” A julgar pela palavra “poderia”, a NVIDIA ainda não definiu o que fará com os recursos da Groq.

A tecnologia Groq permitirá tarefas indisponíveis para Vera Rubin, especificamente inferência em tempo real ultrarrápida, de acordo com o EE Times. Presume-se que a NVIDIA fabricará e implantará chips Groq como uma solução independente em data centers. Embora Huang tenha mencionado a integração de chips Groq com a arquitetura AI Factory da NVIDIA, isso ainda parece um tanto improvável, pois implicaria a admissão da NVIDIA de que suas GPUs não são ideais para certas cargas de trabalho. No entanto, Jensen Huang reiterou na CES 2026 que a flexibilidade da GPU é suficiente para qualquer carga de trabalho. Contudo, o anúncio dos coaceleradores Rubin CPX sugere o contrário.

A Groq possui sua própria pilha de software, mas é difícil avaliar sua qualidade. Relançar a tecnologia da Groq como um produto da NVIDIA exigirá um desenvolvimento de software significativo, e a integração completa ao ecossistema de software pode se provar um grande desafio. Uma opção mais realista seria usar o chiplet da Groq juntamente com um chiplet de GPU maior para lidar com cargas de trabalho específicas, mas mesmo assim, o software será um obstáculo, já que o hardware é fundamentalmente fraco com CUDA.

Isso levanta a questão: “O que a Groq tem que a NVIDIA não tem?” Uma resposta poderia ser o determinismo — o conceito subjacente à arquitetura LPU da Groq, que a empresa tentou promover na indústria automotiva em 2020. O determinismo oferece vantagens significativas para aplicações que exigem segurança funcional, incluindo robótica — Huang se refere a “aplicações em tempo real” na carta mencionada anteriormente. Mas, para alcançar isso, a NVIDIA terá que mudar seu discurso, reconhecendo que seus aceleradores nem sempre são adequados para computação de borda.

De qualquer forma, a NVIDIA possui vastos recursos e uma equipe de especialistas qualificados. Se a Intel tivesse optado por criar um acelerador de IA focado em SRAM em vez de HBM, o custo teria sido muito menor do que os US$ 20 bilhões pagos pela Groq. Além disso, segundo a EE Times, a empresa poderia ter adquirido a d-Matrix por um valor significativamente menor, ou até mesmo a SambaNova, que está disposta a ser vendida para a Intel por apenas US$ 1,6 bilhão.

De acordo com analistas da EE Times, além do licenciamento da tecnologia e da contratação de especialistas da Groq, fatores comerciais também influenciaram a decisão de adquirir a startup. A Groq possui extensas parcerias com diversas empresas.Grandes empresas nos países do Golfo Pérsico. A startup também possui acordos de IA soberana em outros países, o que poderia ter parecido atraente para a NVIDIA. No entanto, um dos principais argumentos para a aquisição da Groq até agora tem sido o de que ela representa uma alternativa viável e acessível à NVIDIA para a construção de infraestrutura de IA soberana.

Ou seja, a aquisição da Groq também pode ser explicada pelo desejo de impedir que um de seus clientes de hiperescala adquira a Groq, seja devido à sua propriedade intelectual de hardware ou à sua infraestrutura já implantada. Isso poderia se referir à Meta✴, à Microsoft ou mesmo à OpenAI, cujos planos para criar seu próprio hardware de IA ainda estão em fase preparatória ou obtiveram apenas sucesso moderado até o momento, enquanto o Google já está disposto a terceirizar seus aceleradores TPU e a AWS, com seu Trainium, ainda está disposta a colaborar com a NVIDIA em hardware.

Analistas do The Register atribuem a grande aquisição da Groq ao interesse da NVIDIA na “arquitetura de pipeline” (fluxo de dados) da startup, que é essencialmente projetada para acelerar cálculos de álgebra linear realizados durante a inferência. Vale ressaltar que arquiteturas orientadas a fluxo de dados não se limitam a projetos focados em SRAM. Por exemplo, a NextSilicon usa HBM. A Groq escolheu SRAM apenas porque simplificava a tarefa, mas não há razão para que a NVIDIA não pudesse construir um acelerador de fluxo de dados baseado na propriedade intelectual da Groq usando SRAM, HBM ou GDDR, escreve o The Register.

Implementar tal arquitetura corretamente é muito difícil, mas a Groq conseguiu fazê-la funcionar adequadamente, pelo menos para inferência, afirma o The Register. Assim, a Groq fornecerá à NVIDIA uma arquitetura de computação otimizada para inferência, algo que lhe faltava muito, acreditam os analistas. Isso é precisamente o que falta à NVIDIA, já que ela efetivamente não possui chips dedicados para essa tarefa. Isso mudará com o lançamento do NVIDIA Rubin em 2026 e sua contraparte Rubin CPX. Ao mesmo tempo, os aceleradores Groq LPU, devido à sua pequena SRAM, precisam ser combinados em clusters de dezenas ou centenas de chips para processar modelos de lógica de baixo nível (LLMs) modernos. Isso também se aplica a outros aceleradores de tipos semelhantes, incluindo o Cerebras. Segundo o The Register, os LPUs poderiam, teoricamente, ser úteis para a chamada decodificação especulativa, na qual um modelo pequeno, com não mais do que alguns bilhões de parâmetros, é usado para prever as respostas de um modelo maior. Se o modelo pequeno “adivinhar” corretamente as respostas, o desempenho geral da inferência poderia aumentar de duas a três vezes.Vale a pena investir 20 bilhões de dólares nessa opção? Essa é a questão.É um assunto à parte, mas Huang parece estar pensando a longo prazo.

Se você notar algum erro, selecione-o com o mouse e pressione CTRL+ENTER. | Você pode melhorar? Ficaremos felizes em receber seu feedback.

Fontes:

admin

Compartilhar
Publicado por
admin

Postagens recentes

A UE considera o código aberto um dos componentes da soberania digital da Europa.

A Comissão Europeia lançou a iniciativa "Rumo a Ecossistemas Digitais Abertos Europeus", que visa identificar…

15 minutos atrás

O RPG sandbox no estilo Minecraft, Hytale, que foi revitalizado, tornou-se um sucesso, com quase 3 milhões de jogadores simultâneos no início do Acesso Antecipado.

Os desenvolvedores do estúdio canadense Hypixel esperavam que cerca de um milhão de jogadores lançassem…

1 hora atrás

A China instalou a maior turbina eólica offshore do mundo – com 20 MW e tão alta quanto a Torre Eiffel.

Os engenheiros chineses continuam a surpreender com seus projetos ambiciosos. Um desses projetos foi a…

2 horas atrás

A startup chinesa Zhipu treinou completamente um modelo de IA em chips da Huawei.

A startup chinesa Knowledge Atlas Technology JSC Ltd. (também conhecida como Zhipu) lançou um modelo…

2 horas atrás