A Nvidia confirmou que sua Conferência Anual de Tecnologia de GPU, dedicada a tecnologias de inteligência artificial, acontecerá de 16 a 19 de março de 2026, em San Jose, Califórnia. O foco será em data centers, que atualmente são a principal fonte de receita da empresa. Isso torna o evento importante não apenas para pesquisadores e desenvolvedores, mas também para investidores que acompanham os desenvolvimentos da Nvidia.
Fonte da imagem: Nvidia
Na conferência GTC 2025, realizada este ano, a empresa discutiu seus planos futuros para o desenvolvimento de aceleradores gráficos. Na ocasião, a Nvidia anunciou aceleradores de IA baseados na arquitetura Vera Rubin, que substituirão o Blackwell Ultra no segundo semestre de 2026. Os aceleradores Rubin serão lançados no próximo ano, e os aceleradores Rubin Ultra devem ser lançados um ano depois. Esta série recebeu o nome de Vera Cooper Rubin, que se tornou famosa por suas pesquisas sobre matéria escura.
No segundo semestre de 2028, a Nvidia planeja lançar o primeiro acelerador baseado na nova arquitetura Feynman, que recebeu o nome em homenagem ao famoso físico teórico Richard Feynman. De acordo com os dados disponíveis, os novos aceleradores usarão memória HBM de última geração em combinação com processadores ARM Vera.
A GTC 2026 deve se concentrar na introdução dos aceleradores Rubin, com mais detalhes sobre cronogramas de implantação, desempenho e escalabilidade. Mais detalhes poderão ficar disponíveis à medida que o evento se aproxima.
Esta semana, alguns usuários do YouTube relataram diversos problemas com o reprodutor web da plataforma.…
Os servidores do Ubuntu e da sua empresa-mãe, a Canonical, estão fora do ar há…
Nas interações humanas, a empatia ou a cortesia muitas vezes entram em conflito com a…
Os organizadores do Oscar publicaram ontem novas regras, segundo as quais apenas atores e roteiristas…
Mais de 30 pessoas que alegam ter sido assediadas por meio do uso de AirTags…
A IBM e a Dallara, fabricante líder de carros de corrida, anunciaram uma colaboração com…