A escassez de poder computacional decorrente do rápido desenvolvimento de sistemas de inteligência artificial está colocando até mesmo plataformas impopulares há anos em uma posição favorável. Os processadores TPU proprietários do Google, por exemplo, têm sido usados em grande número pela Anthropic PBC no desenvolvimento de sua infraestrutura computacional.

Fonte da imagem: Google
Como explica a Bloomberg, a Anthropic PBC assinou recentemente um contrato com o Google para o uso de mais de 1 GW de poder computacional, um acordo avaliado em dezenas de bilhões de dólares. Segundo os termos do acordo, a Anthropic terá acesso a 1 milhão de TPUs proprietárias do Google, que são usadas na infraestrutura de nuvem da gigante da internet. Até agora, o próprio Google tem sido o principal consumidor desses processadores, embora os primeiros processadores dessa família tenham sido desenvolvidos há mais de uma década. Este não é o primeiro contrato desse tipo entre o Google e a Anthropic, mas a crescente colaboração entre as empresas indica o interesse desta última em usar esses processadores.
É possível que o exemplo da Anthropic inspire outras startups de IA a alugar poder computacional baseado em TPU do Google. O Google começou a desenvolver esses processadores altamente especializados em 2013, mas só revelou os primeiros modelos dois anos depois. Eles foram inicialmente usados para acelerar o serviço de busca do próprio Google. A empresa começou a implementar TPUs em sua infraestrutura de nuvem em 2018, abrindo assim a plataforma para clientes terceirizados. Com o tempo, o Google começou a usar TPUs para alimentar seus próprios serviços de IA. Os processadores foram aprimorados com base na experiência adquirida no desenvolvimento dos serviços correspondentes do Google. Especialistas da DeepMind, também de propriedade da gigante da internet, também estiveram envolvidos nesse processo.
Os chips da Nvidia são considerados mais versáteis e potentes nessa área, mas também consomem muita energia, são caros e ainda são escassos. As TPUs estão se tornando mais populares.Os processadores evolucionários também se adaptaram bem às cargas de trabalho computacionais típicas da IA. Eles também são mais acessíveis, consomem menos energia e exigem menos resfriamento. Além da Anthropic, a infraestrutura baseada em TPU do Google é usada pela Salesforce, Midjourney e SSI, uma startup de propriedade de Ilya Sutskever, um dos fundadores da OpenAI. As TPUs provavelmente serão usadas além da infraestrutura de nuvem do próprio Google.
Ao mesmo tempo, o Google continuará sendo um dos maiores clientes da Nvidia, já que os chips desta última são mais adequados para mudanças nas cargas de trabalho computacionais. Os próprios processadores do Google são menos adaptáveis a mudanças sem as modificações de hardware correspondentes. A última geração de TPUs, designada Ironwood, foi revelada em abril; ela é adaptada para inferência e projetada para resfriamento líquido. Um único cluster pode combinar 256 ou 9.216 desses chips. Os especialistas que estavam na vanguarda da TPU agora, em muitos casos, encontraram emprego em startups de IA. Eles indiretamente apoiam a influência do Google no setor.
