O CEO da Nvidia, Jensen Huang, disse que o desempenho dos chips da Nvidia aumentou 1.000 vezes nos últimos 10 anos, desafiando a Lei de Moore. E esse progresso não vai desacelerar tão cedo, com os chips da empresa impulsionando ainda mais reduções de custos e acelerando o desenvolvimento da inteligência artificial (IA), disse Huang ao TechCrunch após sua palestra na CES 2025.
Fonte da imagem: NVIDIA
A Lei de Moore, formulada em 1965 pelo cofundador da Intel, Gordon Moore, previu que o número de transistores em um chip dobraria a cada dois anos, resultando na duplicação do desempenho do chip. O custo da computação diminuiu proporcionalmente. Durante décadas, essa regra determinou o desenvolvimento da tecnologia computacional. No entanto, nos últimos anos, a Lei de Moore começou a desacelerar. No entanto, Jensen Huang discorda veementemente disto, como já afirmou repetidamente antes. Em novembro, Huang disse que o mundo da IA estava à beira de uma “hiper Lei de Moore”.
Desta vez, o fundador da Nvidia observou que os chips de IA da Nvidia estão se desenvolvendo antes do previsto e o novo superchip para data centers é 30 vezes mais rápido do que a geração anterior de chips ao executar tarefas relacionadas à inteligência artificial. “Nossos sistemas estão progredindo muito mais rápido do que a Lei de Moore”, disse Huang ao TechCrunch na terça-feira.
O anúncio de Huang ocorre num momento em que a indústria enfrenta questões sobre a desaceleração do progresso na inteligência artificial. Mas a Nvidia, embora continue a ser um player-chave no mercado que fornece chips para os principais laboratórios de IA, como Google, OpenAI e Anthropic, diz que pode avançar mais rápido do que a Lei de Moore porque a inovação está acontecendo em todos os níveis, desde a arquitetura do chip até os algoritmos de software. “Podemos criar arquitetura, chip, sistema, bibliotecas e algoritmos, tudo ao mesmo tempo”, observou Huang. “Se você fizer isso, poderá avançar mais rápido do que a Lei de Moore, porque poderá inovar em toda a pilha.”
O chefe da Nvidia exibiu na CES o superchip de data center que alimenta o sistema GB200 NVL72, que ele diz ser 30 a 40 vezes mais rápido em computação de IA do que o chip principal H100 anterior. Este aumento significativo no desempenho, segundo Huang, reduzirá o custo de execução de modelos de IA que requerem grande poder de computação, como o modelo o3 da OpenAI. Enfatiza também que, a longo prazo, modelos de raciocínio dispendiosos podem ser utilizados para gerar melhores dados para posterior formação de agentes de IA, o que conduzirá a custos mais baixos.
Huang rejeita a ideia de que o progresso da IA esteja a abrandar e argumenta que os avanços no hardware podem impactar diretamente o desenvolvimento futuro das capacidades de inteligência artificial. “A Lei de Moore foi tão importante na história da computação porque reduziu o custo da computação”, disse Huang ao TechCrunch. “O mesmo acontecerá com a inferência [executando redes neurais treinadas]: aumentaremos a produtividade e, como resultado, o custo da inferência será menor.”
Cientistas da Universidade de Stanford publicaram um novo estudo que prevê um futuro promissor para…
Agentes autônomos de inteligência artificial na rede social de IA Moltbook fundaram espontaneamente sua própria…
Nas últimas semanas, a Apple perdeu pelo menos quatro dos principais pesquisadores de IA, além…
O Instagram pode lançar um recurso que permitirá aos usuários removerem seus nomes da lista…
Na quinta-feira desta semana, um júri federal em São Francisco considerou o ex-engenheiro de software…
A SpaceX, empresa espacial de Elon Musk, encerrou 2025 com um lucro de aproximadamente US$…