O acordo da NVIDIA com a startup de IA Groq, na prática uma aquisição, levantou questionamentos sobre as intenções da líder de mercado em IA. Para evitar aprovação regulatória e investigações antitruste, a NVIDIA disfarçou o acordo como uma licença não exclusiva para a tecnologia da Groq. Como resultado, funcionários-chave da Groq foram transferidos para a NVIDIA, enquanto a equipe restante, liderada pelo CFO, continuará gerenciando a infraestrutura da GroqCloud e provavelmente não manterá a competitividade anterior da startup.
A NVIDIA concluiu um acordo semelhante pouco antes, adquirindo a startup de desenvolvimento de interconexões Enfabrica. No caso da Enfabrica, o negócio foi avaliado em US$ 900 milhões. Essa é uma grande quantia para uma startup em estágio inicial, mas totalmente razoável no cenário atual, segundo o EE Times. A Groq é uma startup maior, mas o negócio também é significativamente mais valioso – US$ 20 bilhões, em comparação com sua avaliação mais recente de US$ 6,9 bilhões.
Embora se suponha que o acordo com a Enfabrica esteja pelo menos parcialmente relacionado a contratações, uma quantia tão alta para a Groq dificilmente se justifica se o objetivo for apenas atrair talentos qualificados. É possível que a NVIDIA planeje fabricar chips da Groq. O CEO da NVIDIA, Jensen Huang, mencionou-os em um e-mail aos funcionários: “Planejamos integrar os processadores de baixa latência da Groq à arquitetura NVIDIA AI Factory, expandindo a plataforma para atender a uma gama ainda maior de cargas de trabalho de inferência de IA e em tempo real.”
Fonte da imagem: Groq
No entanto, na CES 2026, Huang afirmou que a tecnologia Groq não faria parte do portfólio principal de data centers da NVIDIA. “[Groq] é algo completamente diferente, e não espero que substitua o que estamos fazendo com Vera Rubin e nossa próxima geração”, disse Huang. “Contudo, poderíamos incorporar sua tecnologia de uma forma que melhorasse incrementalmente algo que o mundo ainda não conseguiu fazer.” A julgar pela palavra “poderia”, a NVIDIA ainda não definiu o que fará com os recursos da Groq.
A tecnologia Groq permitirá tarefas indisponíveis para Vera Rubin, especificamente inferência em tempo real ultrarrápida, de acordo com o EE Times. Presume-se que a NVIDIA fabricará e implantará chips Groq como uma solução independente em data centers. Embora Huang tenha mencionado a integração de chips Groq com a arquitetura AI Factory da NVIDIA, isso ainda parece um tanto improvável, pois implicaria a admissão da NVIDIA de que suas GPUs não são ideais para certas cargas de trabalho. No entanto, Jensen Huang reiterou na CES 2026 que a flexibilidade da GPU é suficiente para qualquer carga de trabalho. Contudo, o anúncio dos coaceleradores Rubin CPX sugere o contrário.
A Groq possui sua própria pilha de software, mas é difícil avaliar sua qualidade. Relançar a tecnologia da Groq como um produto da NVIDIA exigirá um desenvolvimento de software significativo, e a integração completa ao ecossistema de software pode se provar um grande desafio. Uma opção mais realista seria usar o chiplet da Groq juntamente com um chiplet de GPU maior para lidar com cargas de trabalho específicas, mas mesmo assim, o software será um obstáculo, já que o hardware é fundamentalmente fraco com CUDA.
Isso levanta a questão: “O que a Groq tem que a NVIDIA não tem?” Uma resposta poderia ser o determinismo — o conceito subjacente à arquitetura LPU da Groq, que a empresa tentou promover na indústria automotiva em 2020. O determinismo oferece vantagens significativas para aplicações que exigem segurança funcional, incluindo robótica — Huang se refere a “aplicações em tempo real” na carta mencionada anteriormente. Mas, para alcançar isso, a NVIDIA terá que mudar seu discurso, reconhecendo que seus aceleradores nem sempre são adequados para computação de borda.
De qualquer forma, a NVIDIA possui vastos recursos e uma equipe de especialistas qualificados. Se a Intel tivesse optado por criar um acelerador de IA focado em SRAM em vez de HBM, o custo teria sido muito menor do que os US$ 20 bilhões pagos pela Groq. Além disso, segundo a EE Times, a empresa poderia ter adquirido a d-Matrix por um valor significativamente menor, ou até mesmo a SambaNova, que está disposta a ser vendida para a Intel por apenas US$ 1,6 bilhão.
De acordo com analistas da EE Times, além do licenciamento da tecnologia e da contratação de especialistas da Groq, fatores comerciais também influenciaram a decisão de adquirir a startup. A Groq possui extensas parcerias com diversas empresas.Grandes empresas nos países do Golfo Pérsico. A startup também possui acordos de IA soberana em outros países, o que poderia ter parecido atraente para a NVIDIA. No entanto, um dos principais argumentos para a aquisição da Groq até agora tem sido o de que ela representa uma alternativa viável e acessível à NVIDIA para a construção de infraestrutura de IA soberana.
Ou seja, a aquisição da Groq também pode ser explicada pelo desejo de impedir que um de seus clientes de hiperescala adquira a Groq, seja devido à sua propriedade intelectual de hardware ou à sua infraestrutura já implantada. Isso poderia se referir à Meta✴, à Microsoft ou mesmo à OpenAI, cujos planos para criar seu próprio hardware de IA ainda estão em fase preparatória ou obtiveram apenas sucesso moderado até o momento, enquanto o Google já está disposto a terceirizar seus aceleradores TPU e a AWS, com seu Trainium, ainda está disposta a colaborar com a NVIDIA em hardware.
Analistas do The Register atribuem a grande aquisição da Groq ao interesse da NVIDIA na “arquitetura de pipeline” (fluxo de dados) da startup, que é essencialmente projetada para acelerar cálculos de álgebra linear realizados durante a inferência. Vale ressaltar que arquiteturas orientadas a fluxo de dados não se limitam a projetos focados em SRAM. Por exemplo, a NextSilicon usa HBM. A Groq escolheu SRAM apenas porque simplificava a tarefa, mas não há razão para que a NVIDIA não pudesse construir um acelerador de fluxo de dados baseado na propriedade intelectual da Groq usando SRAM, HBM ou GDDR, escreve o The Register.
Implementar tal arquitetura corretamente é muito difícil, mas a Groq conseguiu fazê-la funcionar adequadamente, pelo menos para inferência, afirma o The Register. Assim, a Groq fornecerá à NVIDIA uma arquitetura de computação otimizada para inferência, algo que lhe faltava muito, acreditam os analistas. Isso é precisamente o que falta à NVIDIA, já que ela efetivamente não possui chips dedicados para essa tarefa. Isso mudará com o lançamento do NVIDIA Rubin em 2026 e sua contraparte Rubin CPX. Ao mesmo tempo, os aceleradores Groq LPU, devido à sua pequena SRAM, precisam ser combinados em clusters de dezenas ou centenas de chips para processar modelos de lógica de baixo nível (LLMs) modernos. Isso também se aplica a outros aceleradores de tipos semelhantes, incluindo o Cerebras. Segundo o The Register, os LPUs poderiam, teoricamente, ser úteis para a chamada decodificação especulativa, na qual um modelo pequeno, com não mais do que alguns bilhões de parâmetros, é usado para prever as respostas de um modelo maior. Se o modelo pequeno “adivinhar” corretamente as respostas, o desempenho geral da inferência poderia aumentar de duas a três vezes.Vale a pena investir 20 bilhões de dólares nessa opção? Essa é a questão.É um assunto à parte, mas Huang parece estar pensando a longo prazo.
Se você notar algum erro, selecione-o com o mouse e pressione CTRL+ENTER. | Você pode melhorar? Ficaremos felizes em receber seu feedback.
Fontes:
Os jogadores há muito suspeitavam que a aquisição da equipe de modding Cfx.re pela Rockstar…
Embora a Intel tenha saído do grupo das três maiores empresas de semicondutores em faturamento…
Faltando poucos dias para o lançamento esperado do tão aguardado remake do clássico de ação…
No ano passado, associações profissionais de atores americanos apoiaram um projeto de lei que proibiria…
No final de setembro do ano passado, as autoridades holandesas aproveitaram o que consideraram uma…
Ontem, o governo dos EUA aprovou regulamentações de controle de exportação que permitem à Nvidia…