A Cockroach Labs, desenvolvedora do DBMS distribuído CockroachDB, preparou o próximo relatório 2022 Cloud Report, no qual comparou instâncias modernas das “três grandes” nuvens: AWS, Google Cloud Platform e Microsoft Azure. Como parte do estudo, a empresa tentou responder a uma pergunta frequente dos usuários do CockroachDB: é melhor usar muitas instâncias pequenas ou várias instâncias grandes?

Para isso, os pesquisadores avaliaram o desempenho da CPU (CoreMark), subsistema de rede (nperf), subsistema de armazenamento (FIO), bem como a execução de cargas OLTP (TPC-C modificado). Instâncias com os mais recentes processadores AMD EPYC Milan e Intel Xeon Ice Lake-SP participaram dos testes, mas os sistemas Arm até agora foram excluídos da seleção, pois seu suporte oficial aparecerá apenas na versão de outono do CockroachDB.

Os autores do estudo observam que, se as instâncias anteriores baseadas em processadores Intel estavam na liderança em termos de desempenho geral e as instâncias da AMD, embora ficassem para trás, mas ganhassem em termos de preço e desempenho, agora a situação mudou – AMD soluções estão liderando em ambos os casos. Em benchmarks de OLTP e CPU, eles geralmente ultrapassam os sistemas Intel e, na pior das hipóteses, estão no mesmo nível deles.

Fonte: Laboratórios de baratas

No entanto, não foi sem nuances. Então, de repente, descobriu-se que no CoreMark (apenas testes multi-threaded), os processadores Intel Xeon Cascade Lake-SP se mostraram de alguma forma piores que o Ice Lake-SP mais recente, o que não deveria ser e que contradiz os resultados dos benchmarks OLTP . Os pesquisadores não estão prontos para nomear o motivo desse comportamento, pois o problema pode estar no funcionamento anormal do benchmark, que pode não refletir o nível real de desempenho da CPU.

Fonte: Laboratórios de baratas

Os autores do relatório também enfatizaram a importância de se atentar para a rede e armazenamento, pois afetam diretamente o desempenho do SGBD em cargas de trabalho específicas, e a configuração errada pode afetar significativamente o custo de uso. Em particular, o armazenamento local caro, mas de alto desempenho, é necessário apenas em cenários específicos, e o custo de transferência de tráfego dentro de uma região de nuvem e entre regiões pode ser o mesmo.

Outra observação é que todas as nuvens fornecem recursos com limites claramente definidos exatamente dentro desses limites. Mas esperar que os recursos sem esses limites (por exemplo, sem um limite de velocidade superior, mas não inferior) sejam sempre fornecidos ao máximo, você não deve esperar. Se você precisar de um nível de desempenho garantido, na maioria das vezes terá que pagar mais. Os autores também destacam a importância da relação vCPU para RAM e recomendam pelo menos 4 GB por vCPU.

No total, o estudo testou 56 variedades de instâncias em 107 configurações diferentes. Desta vez, não havia um líder claro, todos os três fornecedores, em última análise, oferecem oportunidades aproximadamente iguais e preços competitivos. Quanto à questão principal do estudo, a resposta é esta: no caso de cargas de trabalho OLTP, usar instâncias pequenas pode ser melhor do que usar instâncias maiores.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *