AMD EPYC supera Intel Xeon em benchmarks de nuvem Cockroach Labs

A Cockroach Labs, desenvolvedora do DBMS distribuído CockroachDB, preparou o próximo relatório 2022 Cloud Report, no qual comparou instâncias modernas das “três grandes” nuvens: AWS, Google Cloud Platform e Microsoft Azure. Como parte do estudo, a empresa tentou responder a uma pergunta frequente dos usuários do CockroachDB: é melhor usar muitas instâncias pequenas ou várias instâncias grandes?

Para isso, os pesquisadores avaliaram o desempenho da CPU (CoreMark), subsistema de rede (nperf), subsistema de armazenamento (FIO), bem como a execução de cargas OLTP (TPC-C modificado). Instâncias com os mais recentes processadores AMD EPYC Milan e Intel Xeon Ice Lake-SP participaram dos testes, mas os sistemas Arm até agora foram excluídos da seleção, pois seu suporte oficial aparecerá apenas na versão de outono do CockroachDB.

Os autores do estudo observam que, se as instâncias anteriores baseadas em processadores Intel estavam na liderança em termos de desempenho geral e as instâncias da AMD, embora ficassem para trás, mas ganhassem em termos de preço e desempenho, agora a situação mudou – AMD soluções estão liderando em ambos os casos. Em benchmarks de OLTP e CPU, eles geralmente ultrapassam os sistemas Intel e, na pior das hipóteses, estão no mesmo nível deles.

Fonte: Laboratórios de baratas

No entanto, não foi sem nuances. Então, de repente, descobriu-se que no CoreMark (apenas testes multi-threaded), os processadores Intel Xeon Cascade Lake-SP se mostraram de alguma forma piores que o Ice Lake-SP mais recente, o que não deveria ser e que contradiz os resultados dos benchmarks OLTP . Os pesquisadores não estão prontos para nomear o motivo desse comportamento, pois o problema pode estar no funcionamento anormal do benchmark, que pode não refletir o nível real de desempenho da CPU.

Fonte: Laboratórios de baratas

Os autores do relatório também enfatizaram a importância de se atentar para a rede e armazenamento, pois afetam diretamente o desempenho do SGBD em cargas de trabalho específicas, e a configuração errada pode afetar significativamente o custo de uso. Em particular, o armazenamento local caro, mas de alto desempenho, é necessário apenas em cenários específicos, e o custo de transferência de tráfego dentro de uma região de nuvem e entre regiões pode ser o mesmo.

Outra observação é que todas as nuvens fornecem recursos com limites claramente definidos exatamente dentro desses limites. Mas esperar que os recursos sem esses limites (por exemplo, sem um limite de velocidade superior, mas não inferior) sejam sempre fornecidos ao máximo, você não deve esperar. Se você precisar de um nível de desempenho garantido, na maioria das vezes terá que pagar mais. Os autores também destacam a importância da relação vCPU para RAM e recomendam pelo menos 4 GB por vCPU.

No total, o estudo testou 56 variedades de instâncias em 107 configurações diferentes. Desta vez, não havia um líder claro, todos os três fornecedores, em última análise, oferecem oportunidades aproximadamente iguais e preços competitivos. Quanto à questão principal do estudo, a resposta é esta: no caso de cargas de trabalho OLTP, usar instâncias pequenas pode ser melhor do que usar instâncias maiores.

avalanche

Postagens recentes

A Qualcomm divulgou os resultados do benchmark Snapdragon X2 Elite Extreme, mostrando que ele tem o melhor desempenho.

A Qualcomm publicou resultados de benchmark para seu processador Snapdragon X2 Elite Extreme, projetado para…

33 minutos atrás

315 milhões de núcleos de IA e 1,4 quatrilhão de transistores: Cerebras inaugura data center de 10 MW nos EUA com chips WSE-3 king

A Cerebras Systems, desenvolvedora de aceleradores de IA, inaugurou um novo data center em Oklahoma…

3 horas atrás

Silent Hill f vendeu mais que o remake de Silent Hill 2 no lançamento.

Lançado na semana passada, o jogo de terror psicológico Silent Hill da editora japonesa Konami…

3 horas atrás