Em 2015, a Amazon absorveu a empresa Annapurna Labs, cujos funcionários agora desenvolvem seus próprios aceleradores computacionais para sistemas de inteligência artificial. Isso ficou conhecido esta semana pelas palavras do chefe da divisão principal da AWS durante uma visita de jornalistas a um laboratório no Texas.
Como observa a Reuters, cerca de seis engenheiros estão trabalhando na criação de chips especializados para as necessidades da Amazon neste centro de pesquisa. Seu trabalho é altamente sigiloso, mas a AWS já possui protótipos desses aceleradores rodando em um rack de servidores localizado no laboratório. Esta atividade é liderada por Rami Sinno, que tem experiência na Arm, Calxeda, Freescale Semiconductor, Marvell e Intel.
A Amazon pretende reduzir a sua dependência da Nvidia, que praticamente monopolizou o mercado de aceleradores de computação, e para um grande player de nuvem como a AWS, tal iniciativa poderia economizar algum dinheiro no longo prazo. É geralmente aceito que a Microsoft e a Alphabet (Google) também estejam criando seus próprios aceleradores de computação. De acordo com Rami Sinno, os clientes da AWS exigem cada vez mais alternativas mais baratas às soluções da Nvidia.
De acordo com o vice-presidente de computação e redes da AWS, David Brown, a empresa acredita que pode alcançar uma melhoria de 40% a 50% na relação custo-desempenho dos componentes de computação em comparação com as ofertas da Nvidia. A AWS controla agora quase um terço do mercado de serviços em nuvem, com o Microsoft Azure respondendo por aproximadamente 25%. A Amazon já implantou 80 mil chips proprietários em sua infraestrutura para acelerar a IA. Os processadores Graviton relacionados atualmente somam 250.000 em serviço, mas não possuem recursos especializados para acelerar sistemas de inteligência artificial.