14 points par GN⁺ 2026-03-08 | 1 commentaires | Partager sur WhatsApp
  • Benchmark des performances CPU et du rapport performances/prix sur 7 clouds (44 types de VM), couvrant de manière large le mono-thread, le multi-thread, les instances réservées et spot
  • AMD EPYC Turin prend la 1re place dans presque tous les benchmarks et s’impose comme le nouveau CPU haut de gamme du camp x86
  • En performances par rapport au prix on-demand, Hetzner et Oracle Cloud dominent nettement, tandis qu’AWS affiche globalement le pire rapport qualité-prix hors Turin
  • Intel Granite Rapids corrige les problèmes d’instabilité des performances de la génération précédente Emerald Rapids et offre des performances constantes, mais l’écart avec Turin reste important
  • L’usage d’instances spot permet d’obtenir environ 2 fois plus de performances par dollar qu’avec une réservation sur 3 ans, ce qui en fait un levier clé d’optimisation des coûts cloud

Vue d’ensemble du benchmark et méthodologie

  • Périmètre de comparaison : 7 fournisseurs — AWS, GCP, Azure, Oracle Cloud(OCI), Akamai(Linode), DigitalOcean, Hetzner — et 44 types de VM
  • Pour assurer la cohérence de la comparaison des coûts, toutes les instances ont été configurées sur la base de 2vCPU, 2GB/vCPU de RAM, 30GB SSD
  • Pour AMD et Intel, le SMT (hyperthreading) implique que 2vCPU = 1 cœur physique ; pour ARM et quelques exceptions x86 (AWS C8a, C7a, GCP t2d), 2vCPU = 2 cœurs physiques
  • Les prix on-demand sont basés sur la région la moins chère aux États-Unis, au niveau de janvier 2026 ; les prix actuels doivent être vérifiés séparément
  • Outils de benchmark utilisés : DKbench (benchmark principal, 19 workloads serveur basés sur Perl et C/XS), Geekbench 5, 7zip, NGINX, FFmpeg/libx264, OpenSSL RSA4096(AVX512)
    • Geekbench 6 n’a pas été utilisé, car sa méthode de mesure multicœur a été jugée défectueuse par conception
  • Pour mesurer l’amplitude des performances, les instances ont été créées et testées à plusieurs reprises dans plusieurs régions, puis représentées sous forme de plage min/max

Vue d’ensemble des niveaux de performances par génération de CPU

  • AMD : Rome → Milan → Genoa → Turin (dans l’ordre des générations, du plus ancien au plus récent)
  • Intel : Broadwell → Skylake → Cascade Lake → Ice Lake → Sapphire Rapids → Emerald Rapids → Granite Rapids
  • ARM : Ampere Altra → AmpereOne → AmpereOne M / AWS Graviton2 → Graviton3 → Graviton4 / Google Axion / Azure Cobalt 100
  • Les types de CPU d’anciennes générations, malgré des performances inférieures, peuvent être facturés plus cher à cause des coûts d’exploitation ; il est donc préférable de migrer vers la génération la plus récente dès que possible

Résultats des performances mono-thread

  • AMD EPYC Turin arrive en tête au classement général, avec un avantage aussi net qu’inédit dans l’histoire de la série
    • AWS C8a (Turin, SMT désactivé) est la configuration Turin la plus rapide
    • GCP c4d présente une forte variabilité des performances, et le n4d moins cher est meilleur en termes de régularité
  • Intel Granite Rapids : corrige les problèmes d’instabilité des performances liés à la dépendance au boost clock et à la contention de nœuds sur Emerald Rapids, et fournit des performances plus élevées et plus constantes
    • Sur GCP, Emerald Rapids subit une baisse de performances notable quand la charge augmente, et GCP propose séparément un mode « performances constantes » pour ce cas (boost désactivé)
  • Côté ARM, Google Axion atteint un niveau de performances mono-thread comparable à EPYC Genoa et prend la tête des serveurs ARM
    • Azure Cobalt 100 se situe entre Graviton3 et Graviton4
    • Ampere AmpereOne M progresse légèrement pour se hisser au niveau d’AWS Graviton3
  • Parmi les fournisseurs low cost, DigitalOcean est en baisse sur les indicateurs de performance ; Akamai et Hetzner sont corrects sur base d’instances Milan, mais le niveau de performance n’est pas garanti lors de la création d’une instance

Performances multi-thread et scalabilité

  • Scalabilité : les instances ARM et CPU partagés approchent les ~100 %, ce qui signifie qu’avec 2vCPU elles délivrent environ 2 fois les performances d’1 vCPU
    • Les instances x86 avec SMT restent sous les 100 %, et plus elles se rapprochent de 50 %, plus le gain de performance est faible
    • AMD a historiquement une meilleure efficacité SMT qu’Intel, et Intel s’améliore depuis Ice Lake
    • Les instances Turin d’Akamai affichent une scalabilité exceptionnellement élevée de 71,9 % malgré le SMT (cause inconnue)
    • Instances avec SMT désactivé : AWS C7a(Genoa), C8a(Turin), GCP t2d(Milan)
  • Champion du multi-thread : AWS C8a basé sur Turin avec SMT désactivé domine largement le classement
    • Google Axion est au niveau du Genoa C7a, ancien n°1 de la comparaison
    • Graviton4 suit de près, puis Cobalt 100
    • En bas du classement : Intel Broadwell/Skylake/Ice Lake, AMD Rome
  • 7zip : Turin domine globalement, mais Axion et Graviton4 dépassent Turin sur la décompression ; Cobalt 100 est même n°1 absolu sur la seule décompression
  • NGINX (100 connections) : AWS C8a est presque 2 fois plus rapide que le 2e ; Granite Rapids affiche aussi d’excellents résultats
  • FFmpeg H264 : Turin est 1er, Granite Rapids est proche en mono-thread ; en utilisant 2 cœurs complets, Axion dépasse la plupart des instances SMT (mono-cœur), à l’exception de Turin
  • OpenSSL RSA4096(AVX512) : AMD dépasse Intel sur sa propre extension, Turin et Genoa devançant toutes les générations Intel ; Granite Rapids n’apporte pas de nette amélioration face à Ice Lake ; ARM et les anciens AMD, sans prise en charge d’AVX512, restent sous Intel Skylake et antérieurs

Comparaison performances/prix en on-demand

  • Mono-thread : Hetzner (très nettement n°1 si l’on inclut les cœurs partagés) et Oracle occupent le haut du classement, suivis par GCP n4d(Turin) et Linode
    • AWS a le pire rapport qualité-prix en on-demand ; Turin est la meilleure option chez AWS, mais les anciennes générations ferment la marche
  • Multi-thread : les instances ARM Oracle (AmpereOne M) prennent la 1re place, avec les cœurs partagés de Hetzner et Linode juste derrière
    • Google Axion, Azure Cobalt 100 et les droplets DigitalOcean composent le 2e peloton
  • Les cœurs partagés Hetzner (CPX22, CAX11), malgré des contraintes de disponibilité (régions EU et AP uniquement, ruptures fréquentes), offrent un prix par unité de performance écrasant face aux autres fournisseurs

Comparaison performances/prix en réservation

  • Réservation 1 an : GCP Turin (n4d·c4d) se rapproche d’Oracle, et Azure Cobalt 100 comme Genoa offrent aussi un rapport qualité-prix compétitif
    • Chez AWS, la famille C8a est la meilleure option ; via des tiers comme DoIT Flexsave, il est possible d’obtenir le tarif 1 an sans réservation formelle
  • Réservation 3 ans mono-thread : GCP Turin devance légèrement les VM dédiées d’Oracle et Hetzner ; Azure reste compétitif avec Cobalt 100 et Genoa
    • Même avec un engagement de 3 ans, AWS offre un meilleur rapport qualité-prix qu’Akamai et DigitalOcean
  • Réservation 3 ans multi-thread : Azure Cobalt 100 prend une surprenante 1re place ; GCP et OCI ARM suivent ; AWS et GCP Turin restent proches du haut du classement

Comparaison performances/prix des instances spot/préemptibles

  • Les instances spot sont présentées comme la seule manière dans le cloud d’approcher le coût d’exploitation de ses propres serveurs
    • Avertissement avant récupération de l’instance : AWS et OCI 2 minutes, Azure et GCP 30 secondes
    • La remise Oracle est fixe à 50 %, tandis que les trois autres varient fortement selon la région et le moment
  • Spot mono-thread : Oracle Turin reste toujours en tête grâce à son taux de remise fixe ; GCP et Azure offrent les remises les plus profondes (Genoa, Cobalt 100)
    • En exploitant le spot, on peut obtenir environ 2 fois plus de performances par dollar qu’avec une réservation sur 3 ans
  • Spot multi-thread : Azure Cobalt 100 est n°1, OCI AmpereOne M n°2 ; chez GCP, t2d(Milan) peut offrir le meilleur rapport qualité-prix selon la région ; AWS entre tout juste dans le Top 10 grâce à Turin

Bilan par fournisseur cloud

  • AWS : le meilleur niveau ARM global passe de sa bêta privée Graviton5 à Google Axion, mais la meilleure performance x86 reste assurée par le C8a(Turin) sans SMT ; l’on-demand est cher face à la concurrence, mais spot, réservation et Flexsave peuvent le rendre compétitif ; les remises sur les anciennes générations étant faibles, C8a reste aussi la meilleure option en spot
  • GCP : les instances ARM de 4e génération (Axion c4a) et AMD (Turin n4d·c4d) sont recommandées ; n4d offre quasiment les mêmes performances que c4d pour moins cher ; Granite Rapids n’est pas accessible sans coût supplémentaire de SSD local (min_cpu_platform non pris en charge pour l’instant) ; en spot, le type d’instance optimal varie selon la région
  • Azure : son ARM maison Cobalt 100 est légèrement en dessous de Google Axion en performances, mais à un prix compétitif ; Turin et Granite Rapids sont en preview privée au moment de la rédaction ; surprenante 1re place en multi-thread avec réservation 3 ans
  • Oracle : la VM ARM gratuite à 4 cœurs (A1) est fortement recommandée pour les petits projets ; les instances payantes rivalisent en on-demand avec les prix réservés 1 à 3 ans des Big 3 ; AmpereOne M(A4) et Turin E6 sont respectivement les meilleures options ARM et x86 ; A4 est limité à certaines régions
  • Akamai(Linode) : les Linode à cœurs partagés offrent en on-demand le meilleur rapport qualité-prix après Hetzner et Oracle ; il n’est pas possible de choisir le CPU à la création, il faut donc vérifier directement la présence de Milan (/proc/cpuinfo) ; les instances dédiées permettent de choisir la génération (G8=Turin), mais leurs performances mono-thread sont anormalement faibles
  • DigitalOcean : faute de mises à niveau depuis longtemps, le service recule dans le classement des performances et montre aussi des signes de surcharge ; la simplicité d’usage reste intacte, avec notamment les mises à niveau d’instance faciles (changement de type en un clic)
  • Hetzner : bonne réputation sur le long terme, sans surprovisionnement excessif (hors CX23) ; ses cœurs partagés CPX22(Genoa) et CAX11(ARM Altra) affichent le meilleur rapport qualité-prix, mais sont limités aux régions EU/AP et souvent en rupture ; le cœur dédié CCX13 montre des écarts de performances selon le datacenter

Recommandations finales

  • Budget minimal : offre gratuite Oracle → Hetzner (si les régions EU/AP conviennent) → instances spot (Azure ARM, Oracle et GCP ARM/AMD)
  • Meilleur rapport qualité-prix pour CPU non partagé (on-demand) : Oracle AmpereOne M A4 ou Turin E6 ; avec réservation, Azure Dpls_v6, GCP c4a/n4d et AWS C8a sont aussi compétitifs
  • Performances maximales : AWS C8a (Turin sans SMT) offre les meilleures performances sur une instance unique ; toutes les instances des grands fournisseurs équipées de Turin constituent le niveau juste en dessous

1 commentaires

 
GN⁺ 2026-03-08
Commentaires sur Hacker News
  • Nous avons lancé de gros tests dans notre CI. Nous avons utilisé des instances AMD Turin sur GCP, qui figuraient aussi parmi les plus rapides dans l’article
    Mais, de façon surprenante, l’AMD EPYC 4565p est jusqu’à 2 fois plus rapide en mono-cœur que les Turin dans le cloud
    Sur GCP, le test prenait 2 minutes, alors qu’il se terminait en 1 minute sur le 4565p. Dans le cloud, le boost tenait à 4,1 GHz, contre 5,1 GHz sur ma machine
    GCP, c’est 130 $/mois pour 8 vCPU (instance spot), alors que mon 4565p est un CPU à 500 $ avec 32 vCPU, et toute la machine coûte moins de 2 000 $
    Pour la CI, je pense qu’installer directement en rack est bien plus efficace. En quelques mois, on compense le coût du cloud, avec en plus des performances 2 fois supérieures

    • Chez Hetzner, une configuration 8 vCPU revient à environ 10 à 48 €/mois, et pour 104 € on peut avoir un Ryzen 9 7950X3D (presque identique au 4565p) + 128 Go de DDR5 + 2 SSD de 2 To
      Les marges des entreprises européennes sont bien plus faibles que celles des américaines. En calcul simplifié, il faut 17 mois pour amortir, et en tenant compte de la colocation, plutôt 8 ans pour rentrer dans ses frais
    • Si une machine à 2 000 $ coûte 100 $/mois en colocation, l’idée qu’elle soit amortie en quelques mois ne tient pas
      Même avec une colocation gratuite, il faut plus d’un an
    • J’exploitais autrefois un site de comparaison de prix (baremetalsavings.com)
      Aujourd’hui, les développeurs trouvent le bare metal intimidant, mais en réalité le cloud est tout aussi complexe, voire davantage
    • Datapacket et OVH proposent aussi le 4565p. Ce CPU est une pépite cachée. Pour la plupart des workloads, il est parmi les meilleurs à la fois en performances et en rapport qualité-prix
    • Blacksmith.sh repose sur une idée similaire. La différence, c’est qu’il n’est pas nécessaire d’héberger soi-même le matériel
  • Je travaille dans l’équipe VM de Google Compute Engine. Cet article était vraiment un benchmark très bien présenté

    1. Turin est monstrueux
    2. Hetzner est excellent sur le rapport performances/prix, surtout pour les petits projets
    3. DigitalOcean a encore beaucoup de matériel ancien, mais a récemment renouvelé une partie avec des processeurs Xeon de 5e génération
    • Hetzner révèle tout son potentiel sur les serveurs dédiés
  • Genoa représentait déjà un grand bond par rapport à Milan, mais Turin l’est encore davantage. AMD est vraiment en grande forme en ce moment. Bravo à l’équipe de Lisa Su

    • Mais AMD reste encore faible sur l’écosystème logiciel. C’est pour cela que NVIDIA est devenue une entreprise valant des milliers de milliards
      Des accélérateurs comme le MI300 sont compétitifs sur le papier, mais la stack logicielle est trop faible pour susciter de l’intérêt
  • Vultr et HostHatch sont aussi des options à considérer

  • J’ai fait quelques comparaisons avec mon PC gaming (9800X3D, 8 cœurs à 5,2 GHz)
    Les résultats sous 7-Zip et Geekbench montrent que le CPU desktop est nettement plus rapide, à la fois en mono-thread et en multi-thread
    Les performances mono-thread du C8A sont correctes, mais les performances mémoire sont désastreuses

  • Je me demande à quel point il est facile de quitter Oracle Cloud. Les benchmarks sont bons, mais j’ai entendu dire que le verrouillage par les licences y est très fort

    • C’est moi qui ai écrit cet article. Je ne recommanderais jamais Oracle. Sa politique tarifaire et son verrouillage sont beaucoup trop agressifs
      Cela dit, comme les coûts sont très bas, je laisse mes petits projets sur Oracle Cloud. Je n’utilise pas le DBaaS, seulement des VM Linux
    • J’utilise Oracle Cloud depuis plusieurs années pour le travail. Tant qu’on n’utilise pas leur DBaaS propriétaire, en partir est plutôt facile, et le trafic sortant est gratuit
      En revanche, l’UX est vraiment horrible
    • J’ai demandé un essai, et quelques jours plus tard mon compte a été fermé et mes VM supprimées. Je n’ai même pas pu ajouter mes informations de paiement
      L’équipe commerciale a continué à me contacter, sans jamais résoudre le problème. Sur Reddit aussi, beaucoup ont eu la même expérience
    • J’ai testé l’offre gratuite : la création de compte est compliquée, et ils arrêtent les instances si l’utilisation est trop faible. L’interface faisait globalement vieillotte
    • Chaque fois que je me connecte à Oracle Cloud, je me demande : « pourquoi faut-il encore se connecter ? »
  • J’utilise encore des CPU EPYC ROME achetés quelques centaines de dollars. L’efficacité énergétique n’est pas terrible, mais en multi-thread ils sont supérieurs au 9950X

  • Ça me fait plaisir de voir que ma fibre 250/250 à 36 euros par mois reste encore assez compétitive

  • Il semble toujours que posséder son propre matériel soit bien moins cher. Je pense que c’est encore plus vrai pour les environnements de développement et de test
    Je ne comprends pas pourquoi les grandes entreprises vont dans le cloud alors que leur coût du capital est inférieur à celui d’AWS

    • Quand le cloud est arrivé, commander un serveur pouvait prendre 3 mois, et les coûts d’électricité, de refroidissement et de gestion humaine étaient élevés
      Mais aujourd’hui, la structure de prix inclut aussi le coût des ingénieurs AWS, donc en pratique cela reste cher
      Les serveurs montent désormais jusqu’à 288 cœurs, donc il est tout à fait possible d’exploiter sa propre capacité avec de la marge
    • J’ai fait migrer deux clients vers de la colocation, et les économies ont été spectaculaires.
      Il est tout à fait possible de faire tourner les workloads principaux sur son propre matériel tout en conservant du stockage cloud à côté
    • Le cloud sera évidemment toujours plus cher que son propre matériel. Mais on le choisit pour le multi-région et la facilité d’administration
      En réalité, la raison principale, c’est souvent simplement : « parce que tout le monde le fait »
    • On voit aussi beaucoup de billets du type « nous sommes passés d’AWS à Hetzner et avons réduit nos coûts de 89 % »
      Voir l’article lié
    • Mais maintenir et mettre à jour du matériel en direct implique un surcoût opérationnel important, ce qui explique pourquoi la flexibilité du cloud reste attractive
  • Il est ironique qu’Oracle apparaisse comme une option au bon rapport qualité-prix, mais j’ai du mal à croire qu’on puisse s’y fier durablement