O CEO da Nvidia, Jensen Huang, disse que o desempenho dos chips da Nvidia aumentou 1.000 vezes nos últimos 10 anos, desafiando a Lei de Moore. E esse progresso não vai desacelerar tão cedo, com os chips da empresa impulsionando ainda mais reduções de custos e acelerando o desenvolvimento da inteligência artificial (IA), disse Huang ao TechCrunch após sua palestra na CES 2025.

Fonte da imagem: NVIDIA

A Lei de Moore, formulada em 1965 pelo cofundador da Intel, Gordon Moore, previu que o número de transistores em um chip dobraria a cada dois anos, resultando na duplicação do desempenho do chip. O custo da computação diminuiu proporcionalmente. Durante décadas, essa regra determinou o desenvolvimento da tecnologia computacional. No entanto, nos últimos anos, a Lei de Moore começou a desacelerar. No entanto, Jensen Huang discorda veementemente disto, como já afirmou repetidamente antes. Em novembro, Huang disse que o mundo da IA ​​​​estava à beira de uma “hiper Lei de Moore”.

Desta vez, o fundador da Nvidia observou que os chips de IA da Nvidia estão se desenvolvendo antes do previsto e o novo superchip para data centers é 30 vezes mais rápido do que a geração anterior de chips ao executar tarefas relacionadas à inteligência artificial. “Nossos sistemas estão progredindo muito mais rápido do que a Lei de Moore”, disse Huang ao TechCrunch na terça-feira.

O anúncio de Huang ocorre num momento em que a indústria enfrenta questões sobre a desaceleração do progresso na inteligência artificial. Mas a Nvidia, embora continue a ser um player-chave no mercado que fornece chips para os principais laboratórios de IA, como Google, OpenAI e Anthropic, diz que pode avançar mais rápido do que a Lei de Moore porque a inovação está acontecendo em todos os níveis, desde a arquitetura do chip até os algoritmos de software. “Podemos criar arquitetura, chip, sistema, bibliotecas e algoritmos, tudo ao mesmo tempo”, observou Huang. “Se você fizer isso, poderá avançar mais rápido do que a Lei de Moore, porque poderá inovar em toda a pilha.”

O chefe da Nvidia exibiu na CES o superchip de data center que alimenta o sistema GB200 NVL72, que ele diz ser 30 a 40 vezes mais rápido em computação de IA do que o chip principal H100 anterior. Este aumento significativo no desempenho, segundo Huang, reduzirá o custo de execução de modelos de IA que requerem grande poder de computação, como o modelo o3 da OpenAI. Enfatiza também que, a longo prazo, modelos de raciocínio dispendiosos podem ser utilizados para gerar melhores dados para posterior formação de agentes de IA, o que conduzirá a custos mais baixos.

Huang rejeita a ideia de que o progresso da IA ​​esteja a abrandar e argumenta que os avanços no hardware podem impactar diretamente o desenvolvimento futuro das capacidades de inteligência artificial. “A Lei de Moore foi tão importante na história da computação porque reduziu o custo da computação”, disse Huang ao TechCrunch. “O mesmo acontecerá com a inferência [executando redes neurais treinadas]: aumentaremos a produtividade e, como resultado, o custo da inferência será menor.”

avalanche

Postagens recentes

Os EUA vão enviar um “aspirador” à Lua para recolher amostras de solo

Na próxima semana, a NASA, no âmbito da missão Blue Ghost 1, poderá enviar à…

32 minutos atrás

Nokia conclui venda da Alcatel Submarine Networks para França

Em Junho passado, a Nokia anunciou a venda planeada da ASN, anunciando simultaneamente a compra…

1 hora atrás

Palit exibiu sua melhor GeForce RTX 5090 em um novo design lacônico Master

Embora a Palit já tenha anunciado suas versões das placas de vídeo GeForce RTX 5090,…

2 horas atrás