A Meta foi forçada a revisar a arquitetura de seus data centers devido à recusa em lançar seus próprios chips de IA em favor dos aceleradores da NVIDIA

A Meta*, de acordo com a Reuters, foi forçada a reconfigurar seus data centers devido ao atraso em relação aos concorrentes em termos de desenvolvimento de plataformas de IA. A empresa, em particular, decidiu abandonar a introdução de chips de inferência de seu próprio projeto.

Ressalte-se que até o ano passado, a Meta* utilizava uma arquitetura em que as CPUs tradicionais conviviam com soluções customizadas. No entanto, descobriu-se que essa abordagem é menos eficiente em comparação com o uso de aceleradores (GPU). Ao mesmo tempo, a empresa abandonou anteriormente os aceleradores Qualcomm AI, apontando para falhas de software que, aparentemente, só recentemente foram eliminadas. E com o Esperanto, provavelmente, as relações com o Meta* ainda não se desenvolveram. No entanto, agora a empresa está interessada em IA generativa, e não apenas em sistemas de recomendação, que impõem outros requisitos aos equipamentos.

Fonte da imagem: Meta*

Durante a maior parte de 2022, a Meta* investiu ativamente no desenvolvimento de infraestrutura, mas no final do ano soube-se que havia suspendido a construção de vários data centers e, em seguida, revisou os gastos com data centers. A empresa decidiu repensar radicalmente a arquitetura de seus data centers, contando com o LSS. Como agora se vê, isso se deve ao fato de que a Meta * abandonou seus próprios chips de IA em favor dos aceleradores da NVIDIA: o volume de pedidos destes últimos é estimado em “bilhões de dólares”. A empresa apresentou a plataforma Grand Teton correspondente no final do ano passado.

Fonte da imagem: Meta*

Mas os aceleradores consomem mais energia e geram mais calor do que CPUs ou ASICs altamente especializados. Além disso, os aceleradores devem estar fisicamente próximos uns dos outros, embora a empresa já esteja experimentando a interconexão. Tudo isso afeta a arquitetura do data center. No entanto, a Meta* ainda está desenvolvendo algum tipo de chip secreto que servirá tanto para treinar modelos de IA quanto para inferência. Espera-se que esta solução veja a luz do dia em 2025. Até agora, a empresa pretende usar seu próprio supercomputador RSC AI e clusters de nuvem do Microsoft Azure para treinamento em IA.

Um caminho semelhante foi escolhido pela Microsoft, que decidiu criar seu próprio chip AI sem abandonar os aceleradores NVIDIA até agora. The Information acrescenta que Jean Boufarhat, vice-presidente de engenharia de silício da Microsoft, se juntará à Meta*. Ele liderará o Facebook* Agile Silicon Team (FAST) para auxiliar a empresa em seus projetos de construção de chips. Anteriormente, a Meta * atraiu o chefe de desenvolvimento de soluções de rede para data centers da Intel. Google e Amazon já possuem seus chips de IA para aprendizado e inferência.

* Está incluída no rol de associações públicas e entidades religiosas em relação às quais o tribunal tenha proferido decisão que entrou em vigor para liquidar ou proibir atividades com base na Lei Federal nº 114-FZ, de 25 de julho de 2002 “Sobre o combate à atividade extremista”.

avalanche

Postagens recentes

Sistema oculto encontrado no iOS 16 para desabilitar recursos do iPhone com base na localização

IPhones e iPads funcionam em todo o mundo. No entanto, alguns recursos do iOS disponíveis…

40 segundos atrás

‘Muito realista’: Joy-Con Sticks derivam no novo anúncio de The Legend of Zelda: Tears of the Kingdom

O problema do stick drift do console híbrido Joy-Con do Nintendo Switch é tão comum…

46 minutos atrás

Tencent está em busca de estúdios de jogos europeus

O Financial Times, citando quatro fontes informadas, relata que a gigante tecnológica chinesa Tencent está…

1 hora atrás