O CEO da Nvidia, Jensen Huang, disse que o desempenho dos chips da Nvidia aumentou 1.000 vezes nos últimos 10 anos, desafiando a Lei de Moore. E esse progresso não vai desacelerar tão cedo, com os chips da empresa impulsionando ainda mais reduções de custos e acelerando o desenvolvimento da inteligência artificial (IA), disse Huang ao TechCrunch após sua palestra na CES 2025.
A Lei de Moore, formulada em 1965 pelo cofundador da Intel, Gordon Moore, previu que o número de transistores em um chip dobraria a cada dois anos, resultando na duplicação do desempenho do chip. O custo da computação diminuiu proporcionalmente. Durante décadas, essa regra determinou o desenvolvimento da tecnologia computacional. No entanto, nos últimos anos, a Lei de Moore começou a desacelerar. No entanto, Jensen Huang discorda veementemente disto, como já afirmou repetidamente antes. Em novembro, Huang disse que o mundo da IA estava à beira de uma “hiper Lei de Moore”.
Desta vez, o fundador da Nvidia observou que os chips de IA da Nvidia estão se desenvolvendo antes do previsto e o novo superchip para data centers é 30 vezes mais rápido do que a geração anterior de chips ao executar tarefas relacionadas à inteligência artificial. “Nossos sistemas estão progredindo muito mais rápido do que a Lei de Moore”, disse Huang ao TechCrunch na terça-feira.
O anúncio de Huang ocorre num momento em que a indústria enfrenta questões sobre a desaceleração do progresso na inteligência artificial. Mas a Nvidia, embora continue a ser um player-chave no mercado que fornece chips para os principais laboratórios de IA, como Google, OpenAI e Anthropic, diz que pode avançar mais rápido do que a Lei de Moore porque a inovação está acontecendo em todos os níveis, desde a arquitetura do chip até os algoritmos de software. “Podemos criar arquitetura, chip, sistema, bibliotecas e algoritmos, tudo ao mesmo tempo”, observou Huang. “Se você fizer isso, poderá avançar mais rápido do que a Lei de Moore, porque poderá inovar em toda a pilha.”
O chefe da Nvidia exibiu na CES o superchip de data center que alimenta o sistema GB200 NVL72, que ele diz ser 30 a 40 vezes mais rápido em computação de IA do que o chip principal H100 anterior. Este aumento significativo no desempenho, segundo Huang, reduzirá o custo de execução de modelos de IA que requerem grande poder de computação, como o modelo o3 da OpenAI. Enfatiza também que, a longo prazo, modelos de raciocínio dispendiosos podem ser utilizados para gerar melhores dados para posterior formação de agentes de IA, o que conduzirá a custos mais baixos.
Huang rejeita a ideia de que o progresso da IA esteja a abrandar e argumenta que os avanços no hardware podem impactar diretamente o desenvolvimento futuro das capacidades de inteligência artificial. “A Lei de Moore foi tão importante na história da computação porque reduziu o custo da computação”, disse Huang ao TechCrunch. “O mesmo acontecerá com a inferência [executando redes neurais treinadas]: aumentaremos a produtividade e, como resultado, o custo da inferência será menor.”
Os principais tablets Android equipados com os melhores e mais recentes microprocessadores Qualcomm são bastante…
Segundo fontes online, a Cooler Master está trabalhando na criação de sua própria placa de…
O aparecimento de ontem de imagens espiãs da versão atualizada do Tesla Model Y acabou…
Os representantes da AMD comentaram sobre a contínua escassez do principal processador Ryzen 9 9800X3D,…
A Meta✴ pagou US$ 100.000 ao especialista independente em segurança cibernética Ben Sadeghipour por descobrir…
Um dos principais anúncios da apresentação da AMD na CES 2025, realizada em 6 de…