O CEO da Nvidia, Jensen Huang, disse que o desempenho dos chips da Nvidia aumentou 1.000 vezes nos últimos 10 anos, desafiando a Lei de Moore. E esse progresso não vai desacelerar tão cedo, com os chips da empresa impulsionando ainda mais reduções de custos e acelerando o desenvolvimento da inteligência artificial (IA), disse Huang ao TechCrunch após sua palestra na CES 2025.
A Lei de Moore, formulada em 1965 pelo cofundador da Intel, Gordon Moore, previu que o número de transistores em um chip dobraria a cada dois anos, resultando na duplicação do desempenho do chip. O custo da computação diminuiu proporcionalmente. Durante décadas, essa regra determinou o desenvolvimento da tecnologia computacional. No entanto, nos últimos anos, a Lei de Moore começou a desacelerar. No entanto, Jensen Huang discorda veementemente disto, como já afirmou repetidamente antes. Em novembro, Huang disse que o mundo da IA estava à beira de uma “hiper Lei de Moore”.
Desta vez, o fundador da Nvidia observou que os chips de IA da Nvidia estão se desenvolvendo antes do previsto e o novo superchip para data centers é 30 vezes mais rápido do que a geração anterior de chips ao executar tarefas relacionadas à inteligência artificial. “Nossos sistemas estão progredindo muito mais rápido do que a Lei de Moore”, disse Huang ao TechCrunch na terça-feira.
O anúncio de Huang ocorre num momento em que a indústria enfrenta questões sobre a desaceleração do progresso na inteligência artificial. Mas a Nvidia, embora continue a ser um player-chave no mercado que fornece chips para os principais laboratórios de IA, como Google, OpenAI e Anthropic, diz que pode avançar mais rápido do que a Lei de Moore porque a inovação está acontecendo em todos os níveis, desde a arquitetura do chip até os algoritmos de software. “Podemos criar arquitetura, chip, sistema, bibliotecas e algoritmos, tudo ao mesmo tempo”, observou Huang. “Se você fizer isso, poderá avançar mais rápido do que a Lei de Moore, porque poderá inovar em toda a pilha.”
O chefe da Nvidia exibiu na CES o superchip de data center que alimenta o sistema GB200 NVL72, que ele diz ser 30 a 40 vezes mais rápido em computação de IA do que o chip principal H100 anterior. Este aumento significativo no desempenho, segundo Huang, reduzirá o custo de execução de modelos de IA que requerem grande poder de computação, como o modelo o3 da OpenAI. Enfatiza também que, a longo prazo, modelos de raciocínio dispendiosos podem ser utilizados para gerar melhores dados para posterior formação de agentes de IA, o que conduzirá a custos mais baixos.
Huang rejeita a ideia de que o progresso da IA esteja a abrandar e argumenta que os avanços no hardware podem impactar diretamente o desenvolvimento futuro das capacidades de inteligência artificial. “A Lei de Moore foi tão importante na história da computação porque reduziu o custo da computação”, disse Huang ao TechCrunch. “O mesmo acontecerá com a inferência [executando redes neurais treinadas]: aumentaremos a produtividade e, como resultado, o custo da inferência será menor.”
Fonte da imagem: Ubisoft Como notaram os usuários das redes sociais, 20 de março de…
Na próxima semana, a NASA, no âmbito da missão Blue Ghost 1, poderá enviar à…
Em setembro, a Xiaomi apresentou a linha de smartphones Redmi Note 14 na China, que…
Em Junho passado, a Nokia anunciou a venda planeada da ASN, anunciando simultaneamente a compra…
Embora a Palit já tenha anunciado suas versões das placas de vídeo GeForce RTX 5090,…
A Xiaomi lançou o smartphone de preço médio Redmi Note 14 para o mercado internacional.…