- Benchmark des performances CPU et du rapport performances/prix sur 7 clouds (44 types de VM), couvrant de manière large le mono-thread, le multi-thread, les instances réservées et spot
- AMD EPYC Turin prend la 1re place dans presque tous les benchmarks et s’impose comme le nouveau CPU haut de gamme du camp x86
- En performances par rapport au prix on-demand, Hetzner et Oracle Cloud dominent nettement, tandis qu’AWS affiche globalement le pire rapport qualité-prix hors Turin
- Intel Granite Rapids corrige les problèmes d’instabilité des performances de la génération précédente Emerald Rapids et offre des performances constantes, mais l’écart avec Turin reste important
- L’usage d’instances spot permet d’obtenir environ 2 fois plus de performances par dollar qu’avec une réservation sur 3 ans, ce qui en fait un levier clé d’optimisation des coûts cloud
Vue d’ensemble du benchmark et méthodologie
- Périmètre de comparaison : 7 fournisseurs — AWS, GCP, Azure, Oracle Cloud(OCI), Akamai(Linode), DigitalOcean, Hetzner — et 44 types de VM
- Pour assurer la cohérence de la comparaison des coûts, toutes les instances ont été configurées sur la base de 2vCPU, 2GB/vCPU de RAM, 30GB SSD
- Pour AMD et Intel, le SMT (hyperthreading) implique que 2vCPU = 1 cœur physique ; pour ARM et quelques exceptions x86 (AWS C8a, C7a, GCP t2d), 2vCPU = 2 cœurs physiques
- Les prix on-demand sont basés sur la région la moins chère aux États-Unis, au niveau de janvier 2026 ; les prix actuels doivent être vérifiés séparément
- Outils de benchmark utilisés : DKbench (benchmark principal, 19 workloads serveur basés sur Perl et C/XS), Geekbench 5, 7zip, NGINX, FFmpeg/libx264, OpenSSL RSA4096(AVX512)
- Geekbench 6 n’a pas été utilisé, car sa méthode de mesure multicœur a été jugée défectueuse par conception
- Pour mesurer l’amplitude des performances, les instances ont été créées et testées à plusieurs reprises dans plusieurs régions, puis représentées sous forme de plage min/max
Vue d’ensemble des niveaux de performances par génération de CPU
- AMD : Rome → Milan → Genoa → Turin (dans l’ordre des générations, du plus ancien au plus récent)
- Intel : Broadwell → Skylake → Cascade Lake → Ice Lake → Sapphire Rapids → Emerald Rapids → Granite Rapids
- ARM : Ampere Altra → AmpereOne → AmpereOne M / AWS Graviton2 → Graviton3 → Graviton4 / Google Axion / Azure Cobalt 100
- Les types de CPU d’anciennes générations, malgré des performances inférieures, peuvent être facturés plus cher à cause des coûts d’exploitation ; il est donc préférable de migrer vers la génération la plus récente dès que possible
Résultats des performances mono-thread
- AMD EPYC Turin arrive en tête au classement général, avec un avantage aussi net qu’inédit dans l’histoire de la série
- AWS C8a (Turin, SMT désactivé) est la configuration Turin la plus rapide
- GCP c4d présente une forte variabilité des performances, et le n4d moins cher est meilleur en termes de régularité
- Intel Granite Rapids : corrige les problèmes d’instabilité des performances liés à la dépendance au boost clock et à la contention de nœuds sur Emerald Rapids, et fournit des performances plus élevées et plus constantes
- Sur GCP, Emerald Rapids subit une baisse de performances notable quand la charge augmente, et GCP propose séparément un mode « performances constantes » pour ce cas (boost désactivé)
- Côté ARM, Google Axion atteint un niveau de performances mono-thread comparable à EPYC Genoa et prend la tête des serveurs ARM
- Azure Cobalt 100 se situe entre Graviton3 et Graviton4
- Ampere AmpereOne M progresse légèrement pour se hisser au niveau d’AWS Graviton3
- Parmi les fournisseurs low cost, DigitalOcean est en baisse sur les indicateurs de performance ; Akamai et Hetzner sont corrects sur base d’instances Milan, mais le niveau de performance n’est pas garanti lors de la création d’une instance
Performances multi-thread et scalabilité
- Scalabilité : les instances ARM et CPU partagés approchent les ~100 %, ce qui signifie qu’avec 2vCPU elles délivrent environ 2 fois les performances d’1 vCPU
- Les instances x86 avec SMT restent sous les 100 %, et plus elles se rapprochent de 50 %, plus le gain de performance est faible
- AMD a historiquement une meilleure efficacité SMT qu’Intel, et Intel s’améliore depuis Ice Lake
- Les instances Turin d’Akamai affichent une scalabilité exceptionnellement élevée de 71,9 % malgré le SMT (cause inconnue)
- Instances avec SMT désactivé : AWS C7a(Genoa), C8a(Turin), GCP t2d(Milan)
- Champion du multi-thread : AWS C8a basé sur Turin avec SMT désactivé domine largement le classement
- Google Axion est au niveau du Genoa C7a, ancien n°1 de la comparaison
- Graviton4 suit de près, puis Cobalt 100
- En bas du classement : Intel Broadwell/Skylake/Ice Lake, AMD Rome
- 7zip : Turin domine globalement, mais Axion et Graviton4 dépassent Turin sur la décompression ; Cobalt 100 est même n°1 absolu sur la seule décompression
- NGINX (100 connections) : AWS C8a est presque 2 fois plus rapide que le 2e ; Granite Rapids affiche aussi d’excellents résultats
- FFmpeg H264 : Turin est 1er, Granite Rapids est proche en mono-thread ; en utilisant 2 cœurs complets, Axion dépasse la plupart des instances SMT (mono-cœur), à l’exception de Turin
- OpenSSL RSA4096(AVX512) : AMD dépasse Intel sur sa propre extension, Turin et Genoa devançant toutes les générations Intel ; Granite Rapids n’apporte pas de nette amélioration face à Ice Lake ; ARM et les anciens AMD, sans prise en charge d’AVX512, restent sous Intel Skylake et antérieurs
Comparaison performances/prix en on-demand
- Mono-thread : Hetzner (très nettement n°1 si l’on inclut les cœurs partagés) et Oracle occupent le haut du classement, suivis par GCP n4d(Turin) et Linode
- AWS a le pire rapport qualité-prix en on-demand ; Turin est la meilleure option chez AWS, mais les anciennes générations ferment la marche
- Multi-thread : les instances ARM Oracle (AmpereOne M) prennent la 1re place, avec les cœurs partagés de Hetzner et Linode juste derrière
- Google Axion, Azure Cobalt 100 et les droplets DigitalOcean composent le 2e peloton
- Les cœurs partagés Hetzner (CPX22, CAX11), malgré des contraintes de disponibilité (régions EU et AP uniquement, ruptures fréquentes), offrent un prix par unité de performance écrasant face aux autres fournisseurs
Comparaison performances/prix en réservation
- Réservation 1 an : GCP Turin (n4d·c4d) se rapproche d’Oracle, et Azure Cobalt 100 comme Genoa offrent aussi un rapport qualité-prix compétitif
- Chez AWS, la famille C8a est la meilleure option ; via des tiers comme DoIT Flexsave, il est possible d’obtenir le tarif 1 an sans réservation formelle
- Réservation 3 ans mono-thread : GCP Turin devance légèrement les VM dédiées d’Oracle et Hetzner ; Azure reste compétitif avec Cobalt 100 et Genoa
- Même avec un engagement de 3 ans, AWS offre un meilleur rapport qualité-prix qu’Akamai et DigitalOcean
- Réservation 3 ans multi-thread : Azure Cobalt 100 prend une surprenante 1re place ; GCP et OCI ARM suivent ; AWS et GCP Turin restent proches du haut du classement
Comparaison performances/prix des instances spot/préemptibles
- Les instances spot sont présentées comme la seule manière dans le cloud d’approcher le coût d’exploitation de ses propres serveurs
- Avertissement avant récupération de l’instance : AWS et OCI 2 minutes, Azure et GCP 30 secondes
- La remise Oracle est fixe à 50 %, tandis que les trois autres varient fortement selon la région et le moment
- Spot mono-thread : Oracle Turin reste toujours en tête grâce à son taux de remise fixe ; GCP et Azure offrent les remises les plus profondes (Genoa, Cobalt 100)
- En exploitant le spot, on peut obtenir environ 2 fois plus de performances par dollar qu’avec une réservation sur 3 ans
- Spot multi-thread : Azure Cobalt 100 est n°1, OCI AmpereOne M n°2 ; chez GCP, t2d(Milan) peut offrir le meilleur rapport qualité-prix selon la région ; AWS entre tout juste dans le Top 10 grâce à Turin
Bilan par fournisseur cloud
- AWS : le meilleur niveau ARM global passe de sa bêta privée Graviton5 à Google Axion, mais la meilleure performance x86 reste assurée par le C8a(Turin) sans SMT ; l’on-demand est cher face à la concurrence, mais spot, réservation et Flexsave peuvent le rendre compétitif ; les remises sur les anciennes générations étant faibles, C8a reste aussi la meilleure option en spot
- GCP : les instances ARM de 4e génération (Axion c4a) et AMD (Turin n4d·c4d) sont recommandées ; n4d offre quasiment les mêmes performances que c4d pour moins cher ; Granite Rapids n’est pas accessible sans coût supplémentaire de SSD local (
min_cpu_platform non pris en charge pour l’instant) ; en spot, le type d’instance optimal varie selon la région
- Azure : son ARM maison Cobalt 100 est légèrement en dessous de Google Axion en performances, mais à un prix compétitif ; Turin et Granite Rapids sont en preview privée au moment de la rédaction ; surprenante 1re place en multi-thread avec réservation 3 ans
- Oracle : la VM ARM gratuite à 4 cœurs (A1) est fortement recommandée pour les petits projets ; les instances payantes rivalisent en on-demand avec les prix réservés 1 à 3 ans des Big 3 ; AmpereOne M(A4) et Turin E6 sont respectivement les meilleures options ARM et x86 ; A4 est limité à certaines régions
- Akamai(Linode) : les Linode à cœurs partagés offrent en on-demand le meilleur rapport qualité-prix après Hetzner et Oracle ; il n’est pas possible de choisir le CPU à la création, il faut donc vérifier directement la présence de Milan (
/proc/cpuinfo) ; les instances dédiées permettent de choisir la génération (G8=Turin), mais leurs performances mono-thread sont anormalement faibles
- DigitalOcean : faute de mises à niveau depuis longtemps, le service recule dans le classement des performances et montre aussi des signes de surcharge ; la simplicité d’usage reste intacte, avec notamment les mises à niveau d’instance faciles (changement de type en un clic)
- Hetzner : bonne réputation sur le long terme, sans surprovisionnement excessif (hors CX23) ; ses cœurs partagés CPX22(Genoa) et CAX11(ARM Altra) affichent le meilleur rapport qualité-prix, mais sont limités aux régions EU/AP et souvent en rupture ; le cœur dédié CCX13 montre des écarts de performances selon le datacenter
Recommandations finales
- Budget minimal : offre gratuite Oracle → Hetzner (si les régions EU/AP conviennent) → instances spot (Azure ARM, Oracle et GCP ARM/AMD)
- Meilleur rapport qualité-prix pour CPU non partagé (on-demand) : Oracle AmpereOne M A4 ou Turin E6 ; avec réservation, Azure Dpls_v6, GCP c4a/n4d et AWS C8a sont aussi compétitifs
- Performances maximales : AWS C8a (Turin sans SMT) offre les meilleures performances sur une instance unique ; toutes les instances des grands fournisseurs équipées de Turin constituent le niveau juste en dessous
Aucun commentaire pour le moment.