Meta acelerou o lançamento de seu próprio chip MTIA AI de segunda geração com maior desempenho

O chip Meta✴ Training and Inference Accelerator (MTIA) foi projetado para treinar e executar sistemas de IA e foi originalmente projetado para funcionar de forma otimizada com modelos de classificação e recomendação Meta✴. MTIA é uma parte importante do plano de longo prazo da empresa para construir infraestrutura de IA para seus serviços. O chip de primeira geração foi anunciado em maio de 2023. A segunda geração não era esperada até 2025, mas a empresa informou que o novo chip já havia sido colocado em produção.

Fonte da imagem: world-today-news.com

De acordo com Meta✴, o novo chip MTIA está “fundamentalmente focado em fornecer o equilíbrio certo entre desempenho de computação, largura de banda e capacidade de memória”. Ele receberá 256 MB de memória interna com frequência de 1,3 GHz, contra 128 MB e 800 MHz da primeira versão. Os primeiros resultados dos testes do Meta✴ em quatro modelos diferentes de IA mostraram que o novo chip MTIA 2 é três vezes mais rápido, em média. Atualmente, o uso principal do MTIA é em algoritmos de classificação e recomendação, mas o Meta✴ eventualmente pretende expandir as capacidades do chip para trabalhar com IA generativa, como o grande modelo de linguagem Llama.

«Alcançar nossas ambições de chips personalizados significa investir não apenas em silício computacional, mas também em largura de banda de memória, rede e capacidade, e outros sistemas de hardware de próxima geração”, disse Meta✴. A empresa planeja desenvolver outros chips de inteligência artificial. Um desses projetos é o Artemis, um chip projetado especificamente para acelerar a inferência.

Outras empresas de inteligência artificial estão a considerar fabricar os seus próprios chips, à medida que a procura por poder de computação aumenta juntamente com o aumento da popularidade dos sistemas de inteligência artificial. O Google lançou seus chips TPU, a Microsoft anunciou seus chips Maia 100. A Amazon também possui seu próprio chip Trainium 2, que treina modelos básicos quatro vezes mais rápido que a versão anterior.

O boom da IA ​​forçou todas as grandes empresas de tecnologia a começarem a desenvolver seus próprios aceleradores de IA. A demanda por chips é tão alta que a capitalização da líder de mercado Nvidia atingiu dois trilhões de dólares.

avalanche

Postagens recentes

Automontagem Direcionada (DSA): Não é um substituto para EUV, mas sim uma ferramenta muito útil / Offsyanka

Quando, há mais de uma década, no final de 2014, especialistas líderes da indústria de…

4 horas atrás

Meta visa centenas de gigawatts para IA: Zuckerberg lança o projeto de ponta Meta Compute

O CEO da Meta✴, Mark Zuckerberg, anunciou o lançamento de uma nova iniciativa de ponta…

4 horas atrás

O Windows 11 oculta quais drivers instala — a Microsoft promete corrigir o problema.

Usuários do Windows 11 notaram que as atualizações de drivers recebidas pelo Windows Update são…

4 horas atrás

Disco Elysium, Blue Prince, Return of the Obra Dinn e muito mais: o Festival de Detetives do Steam convida você a caçar descontos.

Conforme o cronograma apresentado no verão passado, o primeiro festival temático do modelo de 2026,…

6 horas atrás

A Apple escolheu o Gemini do Google para criar uma Siri nova e mais inteligente.

A Apple anunciou uma parceria plurianual com o Google, na qual seu modelo de IA…

7 horas atrás

“Um parque de diversões colorido, mas vazio”: Designer de Fallout 2 e roteirista de New Vegas explicam o que há de errado com o Fallout da Bethesda.

Chris Avellone, cofundador da Obsidian Entertainment, designer de Fallout 2 e roteirista de Fallout: New…

7 horas atrás