O CEO da Nvidia, Jensen Huang, disse que o desempenho dos chips da Nvidia aumentou 1.000 vezes nos últimos 10 anos, desafiando a Lei de Moore. E esse progresso não vai desacelerar tão cedo, com os chips da empresa impulsionando ainda mais reduções de custos e acelerando o desenvolvimento da inteligência artificial (IA), disse Huang ao TechCrunch após sua palestra na CES 2025.

Fonte da imagem: NVIDIA

A Lei de Moore, formulada em 1965 pelo cofundador da Intel, Gordon Moore, previu que o número de transistores em um chip dobraria a cada dois anos, resultando na duplicação do desempenho do chip. O custo da computação diminuiu proporcionalmente. Durante décadas, essa regra determinou o desenvolvimento da tecnologia computacional. No entanto, nos últimos anos, a Lei de Moore começou a desacelerar. No entanto, Jensen Huang discorda veementemente disto, como já afirmou repetidamente antes. Em novembro, Huang disse que o mundo da IA ​​​​estava à beira de uma “hiper Lei de Moore”.

Desta vez, o fundador da Nvidia observou que os chips de IA da Nvidia estão se desenvolvendo antes do previsto e o novo superchip para data centers é 30 vezes mais rápido do que a geração anterior de chips ao executar tarefas relacionadas à inteligência artificial. “Nossos sistemas estão progredindo muito mais rápido do que a Lei de Moore”, disse Huang ao TechCrunch na terça-feira.

O anúncio de Huang ocorre num momento em que a indústria enfrenta questões sobre a desaceleração do progresso na inteligência artificial. Mas a Nvidia, embora continue a ser um player-chave no mercado que fornece chips para os principais laboratórios de IA, como Google, OpenAI e Anthropic, diz que pode avançar mais rápido do que a Lei de Moore porque a inovação está acontecendo em todos os níveis, desde a arquitetura do chip até os algoritmos de software. “Podemos criar arquitetura, chip, sistema, bibliotecas e algoritmos, tudo ao mesmo tempo”, observou Huang. “Se você fizer isso, poderá avançar mais rápido do que a Lei de Moore, porque poderá inovar em toda a pilha.”

O chefe da Nvidia exibiu na CES o superchip de data center que alimenta o sistema GB200 NVL72, que ele diz ser 30 a 40 vezes mais rápido em computação de IA do que o chip principal H100 anterior. Este aumento significativo no desempenho, segundo Huang, reduzirá o custo de execução de modelos de IA que requerem grande poder de computação, como o modelo o3 da OpenAI. Enfatiza também que, a longo prazo, modelos de raciocínio dispendiosos podem ser utilizados para gerar melhores dados para posterior formação de agentes de IA, o que conduzirá a custos mais baixos.

Huang rejeita a ideia de que o progresso da IA ​​esteja a abrandar e argumenta que os avanços no hardware podem impactar diretamente o desenvolvimento futuro das capacidades de inteligência artificial. “A Lei de Moore foi tão importante na história da computação porque reduziu o custo da computação”, disse Huang ao TechCrunch. “O mesmo acontecerá com a inferência [executando redes neurais treinadas]: aumentaremos a produtividade e, como resultado, o custo da inferência será menor.”

avalanche

Postagens recentes

Agentes de IA na rede social “desumana” Moltbook fundaram sua própria religião: “Pan-Ziparianismo”.

Agentes autônomos de inteligência artificial na rede social de IA Moltbook fundaram espontaneamente sua própria…

2 horas atrás

O Instagram permite que você remova seu nome da lista de “Amigos Próximos” de outras pessoas.

O Instagram pode lançar um recurso que permitirá aos usuários removerem seus nomes da lista…

4 horas atrás

Um ex-engenheiro do Google foi condenado por roubar segredos comerciais para a China.

Na quinta-feira desta semana, um júri federal em São Francisco considerou o ex-engenheiro de software…

5 horas atrás

SpaceX encerra 2025 com lucro de US$ 8 bilhões – avaliação da empresa após IPO pode chegar a US$ 1,5 trilhão.

A SpaceX, empresa espacial de Elon Musk, encerrou 2025 com um lucro de aproximadamente US$…

7 horas atrás