1 points par GN⁺ 26 일 전 | 1 commentaires | Partager sur WhatsApp
  • Data story qui organise 49 GPU de 1996 à 2025 par époque afin de visualiser l’évolution technologique et les changements du marché
  • Chaque génération est distinguée selon le nombre de transistors, la consommation électrique, le prix et les jeux emblématiques, offrant une vue d’ensemble claire de l’évolution des GPU
  • De Voodoo Graphics à la RTX 5090, les performances, la consommation et les prix ont tous connu une croissance explosive
  • Le nombre de transistors est passé de 1M à 92B, le TDP de 15W à 575W et le prix de $299 à $1,999, tandis que les calculs IA et le DLSS se sont imposés comme éléments centraux des générations récentes
  • Le GPU est désormais bien plus qu’un simple moteur de rendu : il s’étend en plateforme pour l’IA, la physique et la simulation, symbole de 30 ans d’évolution technologique

Chronologie de 30 ans d’évolution des GPU

  • Data story qui classe 49 GPU par ordre chronologique de 1996 à 2025 et visualise, pour chaque génération, les jeux emblématiques et les caractéristiques techniques
  • Pour chaque carte, sont indiqués la capacité mémoire, le nombre de transistors, la consommation (TDP), le prix de lancement (ajusté à 2025) ainsi que le jeu symbolisant sa génération
  • Le découpage par époque se compose de Pioneering Era, DirectX Era, Golden Age, HD Gaming Era, Modern Era, RTX Era, Current Gen
  • Chaque période met en évidence les points de bascule de la technologie graphique et les changements de leadership sur le marché
  • À la fin, une comparaison visuelle confronte la part de marché des GPU selon le Steam Hardware Survey (mars 2026) et l’écart entre popularité et prix
  • Période pionnière (1996–1999)

    • Voodoo Graphics (1996) est le premier accélérateur 3D grand public ; en tant que carte dédiée à la 3D, elle nécessitait une connexion en passthrough VGA avec une carte 2D
      • 4MB de mémoire, 1M de transistors, TDP de 15W
      • Jeu emblématique : Quake (1996)
    • Voodoo 2 (1998) prend en charge pour la première fois le SLI (Scan-Line Interleave), doublant les performances avec deux cartes
      • 12MB de mémoire, 8M de transistors, TDP de 18W
      • Jeu emblématique : Half-Life (1998)
    • RIVA TNT (1998) est la réponse concurrente de NVIDIA à 3dfx, avec une architecture « TwiN Texel » améliorant le traitement des textures
      • 16MB de mémoire, 7M de transistors
    • RIVA TNT2 (1999) est la carte qui a permis à NVIDIA de prendre la première place du marché
      • 32MB de mémoire, 15M de transistors
    • Rage 128 Pro (1999) a été adoptée dans l’iMac G3 et est devenue la plus utilisée sur le marché Mac
      • 32MB de mémoire, 8M de transistors
    • GeForce 256 DDR (1999) a été commercialisée comme le « premier GPU au monde », marquant la première utilisation du terme GPU
      • 32MB de mémoire, 17M de transistors, TDP de 50W
  • Ère DirectX (2000–2003)

    • GeForce 2 GTS (2000) introduit le GigaTexel Shader et favorise la démocratisation des graphismes 3D
      • Jeu emblématique : Diablo II (2000)
    • GeForce 3 (2001) prend en charge les premiers shaders programmables (Shader Model 1.0) ; une version personnalisée a été intégrée à la Xbox
    • Radeon 9700 Pro (2002) est la première à prendre en charge DirectX 9.0 et dépasse NVIDIA grâce à un bus 256 bits
    • GeForce FX 5800 Ultra (2003) était si bruyante qu’on la surnommait « Dustbuster »
    • GeForce FX 5900 Ultra (2003) a tenté de faire oublier l’échec du modèle précédent, mais la série FX reste considérée comme la pire génération de NVIDIA
  • Âge d’or (2004–2007)

    • GeForce 6800 GT (2004) est la première à prendre en charge Shader Model 3.0 et le SLI sur PCIe
    • Radeon X800 XT (2004) était efficace, mais limitée par l’absence de prise en charge de Shader Model 3.0
    • GeForce 7800 GTX (2005) est la dernière génération avant les shaders unifiés
    • GeForce 8800 GTX (2006) introduit pour la première fois les shaders unifiés (cœurs CUDA) et DirectX 10, ouvrant l’ère du GPGPU
      • Jeu emblématique : Crysis (2007)
    • GeForce 8800 GT (2007) offrait des performances de niveau GTX à moitié prix, devenant l’un des GPU les plus populaires de l’histoire
  • Ère du gaming HD (2008–2012)

    • Radeon HD 4870 (2008) est la première à utiliser de la mémoire GDDR5, à un tarif inférieur de $350 à celui de la GTX 280
    • Radeon HD 5870 (2009) est la première à prendre en charge DirectX 11 et à dépasser les 2 TFLOPS
    • GeForce GTX 480 (2010) était surnommée « Thermi » à cause de sa chauffe, avec un TDP de 250W
    • GeForce GTX 560 Ti (2011) était la carte « sweet spot » du 1080p au prix de $249
    • GeForce GTX 680 (2012) introduit le GPU Boost, améliorant fortement l’efficacité
    • Radeon HD 7970 (2012) marque le début de la gravure en 28nm et de l’architecture GCN, et a été très prisée pour le minage de cryptomonnaies
  • Ère moderne (2013–2017)

    • GeForce GTX 970 (2014) a suscité la controverse avec le « scandale des 3.5GB », entraînant une indemnisation de $30 dans le cadre d’un recours collectif
    • GeForce GTX 980 Ti (2015) offrait 95% des performances de la Titan X à $999 pour seulement $649
    • GeForce GTX 1060 6GB (2016) est restée n°1 du Steam Survey de 2017 à 2022
    • GeForce GTX 1080 (2016) a représenté le plus grand bond générationnel en 10 ans grâce à la gravure en 16nm
    • GeForce GTX 1080 Ti (2017) est souvent appelée la « dernière grande GTX » et a été conservée longtemps par de nombreux utilisateurs
    • Radeon RX 580 (2017) a vu son prix tripler avec le boom du minage
  • Ère RTX (2018–2023)

    • GeForce RTX 2080 (2018) est la première à prendre en charge le ray tracing matériel et le DLSS
    • GeForce RTX 2060 (2019) introduit le ray tracing sur le segment milieu de gamme
    • Radeon RX 5700 XT (2019) est le premier GPU RDNA gravé en 7nm
    • GeForce RTX 3080 (2020) a été au cœur de la pénurie de GPU liée au Covid et aux cryptomonnaies
    • GeForce RTX 3090 (2020) a porté le prix des GPU grand public à quatre chiffres avec ses $1,499
    • GeForce RTX 4090 (2022) a été au centre de polémiques autour de la fusion du connecteur 12VHPWR
    • Radeon RX 7900 XTX (2022) est le premier GPU en chiplets d’AMD, vendu $200 de moins que la RTX 4080
    • Intel Arc A770 (2022) marque le retour d’Intel sur les GPU dédiés après 24 ans, avec des problèmes de pilotes DX9/11
    • GeForce RTX 4060 (2023) a été jugée sans réel effet de renouvellement générationnel, avec une VRAM réduite à 8GB
    • GeForce RTX 4070 (2023) offre des performances de niveau RTX 3080, mais a été critiquée pour sa hausse de prix
  • Génération actuelle (2025)

    • GeForce RTX 5070 (2025) offre des performances de niveau RTX 4090 à $549 grâce au DLSS 4
    • GeForce RTX 5080 (2025) est proposée à $999, soit le même prix que la RTX 4080, confirmant l’ancrage des tarifs intermédiaires à quatre chiffres

      • GeForce RTX 5090 (2025) est le premier GPU grand public à $2,000, avec 92.2B de transistors et un TDP de 575W
      • Radeon RX 9070 XT (2025) marque le premier RDNA intégrant du matériel dédié à l’IA, AMD ayant renoncé au marché haut de gamme
  • État du marché des GPU (Steam Hardware Survey, mars 2026)

    • Le GPU le plus populaire est la RTX 3060 (4.1%), tandis que le vaisseau amiral RTX 5090 ne représente que 0.42%
    • 8 des 10 premiers modèles sont des produits NVIDIA, et le RTX 4060 Laptop GPU occupe la 2e place avec 4.04%
    • Les RTX 3060 Ti, RTX 4070, RTX 2060 figurent également en tête du classement
    • Le flagship est à $1,999, le modèle grand public à $329 : l’écart de prix est devenu extrême
    • Les données sont visualisées selon le nombre de transistors et l’année de lancement par génération de GPU, avec comparaison détaillée des spécifications au clic

Conclusion

  • De la Voodoo Graphics de 1996 à la RTX 5090 de 2025, les GPU ont connu une croissance explosive des performances, de la consommation et des prix
  • Le nombre de transistors est passé de 1M à 92B, le TDP de 15W à 575W et le prix de $299 à $1,999
  • Le centre de l’innovation a évolué de 3dfx → NVIDIA → AMD → recentrage autour de NVIDIA, et plus récemment, les calculs IA et le DLSS sont devenus centraux
  • Le GPU évolue au-delà du simple rendu pour devenir une plateforme pour l’IA, la physique et la simulation
  • Cette visualisation de données présente 30 ans d’évolution des GPU sous la forme d’un document historique technologique visible d’un seul coup d’œil

1 commentaires

 
GN⁺ 26 일 전
Commentaires Hacker News
  • Cette liste ne ressemble pas, comme son titre le laisse entendre, à une liste curatée, mais plutôt à quelque chose où un LLM a collé des descriptions approximatives sur des GPU populaires
    Le design du site est si réussi qu’il donne l’illusion d’un travail très soigné

    • Le simple fait que le premier GPU soit le Voodoo m’a déjà suffi
    • Il y a plusieurs cartes d’une même génération, donc au final ça ressemble juste à une énumération des GPU populaires des 30 dernières années
    • Ça donne l’impression de voir un futur dystopique où des résultats bâclés par l’IA sont retouchés via du feedback humain
  • Je suis peut-être dépassé, mais j’ai l’impression que les séries RTX 4000/5000 n’ont pas une importance si grande que ça
    À l’inverse, les S3 ViRGE ou Matrox G200 étaient importantes à l’époque, même si leur impact à long terme a été limité

    • Le S3 Savage3D mérite aussi d’être cité. Il était moins performant que la TNT2, mais a introduit en premier la compression de textures
      Voir le wiki S3 Texture Compression
    • J’ajouterais aussi le Matrox Parhelia (première carte avec prise en charge du triple écran) et l’ATI All-in-Wonder (sortie TV)
    • Les RTX 4000/5000 ont rendu DLSS et la génération d’images réellement pratiques, au point de permettre le jeu en 4K avec un budget raisonnable
      Ce n’est pas parfait, mais la plupart des nouveaux jeux le prennent en charge, et en pratique presque personne ne le désactive
    • À une époque, il existait un module noyau pour le combo Matrox + MPlayer. On pouvait utiliser la sortie YUV matérielle avec les options -vo mga ou -vo xmga
    • Pendant un temps, la Matrox G400 DualHead était la meilleure carte pour le multi-écran
  • Beaucoup de GPU de cette liste sont décevants parce qu’ils sont simplement plus rapides que la génération précédente ou juste des versions avec plus de RAM
    J’aurais préféré une approche davantage centrée sur les innovations d’architecture

    • En plus, les « jeux représentatifs » sont souvent des titres qui tournent en réalité très bien sur des GPU bien plus anciens
      Personnellement, j’ai l’impression que depuis Unreal Engine 4, le contenu compte plus que les graphismes
    • Je cherche un article qui traite vraiment en profondeur de l’histoire des GPU. Par exemple, "No graphics API" de Sebastian Aaltonen montre très bien l’histoire des innovations de la stack graphique en opposant l’évolution d’OpenGL/Vulkan à celle de WebGPU/Metal
    • Aujourd’hui, on a l’impression que les architectures atypiques comme la PS3 ont disparu, et que presque tout a convergé vers des architectures basées sur le PC
  • Le Rendition Vérité 1000 est un GPU qui mérite absolument d’être mentionné
    Voir l’article de Fabien Sanglard. Il est sorti avant le Voodoo 1 et apportait la prise en charge de glQuake et de Tomb Raider en gl

    • À mon avis, ces constructeurs expérimentaux des débuts ont bien plus d’importance. Ils sont beaucoup plus intéressants que des GPU comme les séries 2000 à 4000, qui n’ont apporté que des améliorations progressives
    • Cette carte m’a donné envie de replonger dans de vieux souvenirs et de retrouver de la documentation. À l’époque, tout le monde avait de grands espoirs pour les builds Pentium Pro, mais au final on est passés au Pentium II avec des TNT ou des Rage 128
    • Je pensais bien connaître l’histoire des GPU, mais c’est la première fois que j’entends parler de cette carte. J’ai appris quelque chose
    • La différence de philosophie de conception des puces entre Rendition et 3dfx est intéressante
    • Le Vérité 1000 ne se limitait pas à dessiner des triangles : on peut y voir un point de départ primitif du pixel shading. L’effet d’ondulation de l’eau dans vQuake en est un exemple
  • Associer la RX 5700 XT à Control est un choix étrange
    À l’époque, AMD ne prenait pas en charge le ray tracing, et Control a été l’un des premiers jeux à proposer une implémentation RT marquante

    • La principale différence apportée par le RT concernait les reflets, mais c’était surtout limité à des scènes simples, comme des bureaux
      Avec des cubemaps, SSR et overlays raster, on pouvait déjà reproduire 90 % du résultat
      Au contraire, les jeux qui mettaient le RT en avant utilisaient souvent mal les techniques existantes, ce qui rendait l’écart plus impressionnant qu’il ne l’était vraiment
      La vraie force du RT se voit surtout sur des surfaces réfléchissantes irrégulières ou dans des scènes complexes
  • On est en plein mode nostalgie totale
    Il y a un mois, j’ai rangé un vieux desktop avec un i7-4790k et une 1080 Ti, et ça m’a rappelé toute une époque
    Il fut un temps où je faisais du dual boot avec Ubuntu, Elementary et Arch, et avant ça la 8800 GT était la carte de mes rêves

    • J’utilise encore très bien une config Z97 + i7-4790k + 980Ti. Aucune raison de la mettre à niveau
    • Avant, il y avait un vrai high de consommation quand on achetait un nouvel appareil ; aujourd’hui c’est moins le cas
      À une époque je fantasmais sur les Surface, maintenant je trouve bien plus intéressant de faire tourner des LLM en local sur une 4070 Founders
    • J’ai la même configuration, mais aujourd’hui je n’utilise plus qu’un portable Ryzen
    • J’utilise actuellement un système i5-3570k + 1070Ti
      Le CPU est trop vieux, donc Civ 7 ne se lance pas (problème d’instruction DRM)
      Je suis déçu par les cartes récentes qui ont trop peu de mémoire GPU. Les 8 Go de VRAM étaient l’élément clé pour la pérennité
    • Mon serveur TrueNAS Scale tourne encore très bien sur un i7-3770
  • L’infographie est belle, mais en réalité il n’y a pas 49 GPU vraiment significatifs
    Depuis Pascal, je pense qu’il n’y en a qu’un ou deux qui comptent vraiment

    • En fait, j’ai même l’impression que Pascal arrivait déjà tard (2016)
      Après D3D9 (2002), les GPU ont pratiquement tous implémenté les mêmes fonctions, c’est à ce moment-là que la différenciation a disparu
  • Pour moi, le GPU le plus marquant reste la 8800 GT
    Associée à l’Orange Box de Valve, c’était le meilleur rapport qualité-prix
    La 5700 XT est la carte qui a tenu le plus longtemps parmi tous les GPU que j’ai utilisés, et elle est encore tout à fait d’actualité

    • Moi aussi, j’ai économisé longtemps pour m’acheter une 8800 GTX, et je l’ai utilisée 5 ans sans aucune mise à niveau
    • J’ai eu une 5700 XT auparavant, mais elle avait souvent des plantages du noyau Linux
  • Le site n’avait pas de barre de défilement horizontale, donc il fallait faire glisser la section GPU à la souris. Je me suis demandé si j’étais juste devenu vieux

    • C’est assez drôle de faire un site sur du matériel desktop sans penser à l’expérience desktop
    • Aujourd’hui, tout est pensé selon un design orienté mobile. Il paraît qu’insister sur les grands écrans est un trait typique des millennials
    • Grâce aux retours, le bug a été corrigé
  • Il manque des GPU importants dans l’histoire du PC. Par exemple le TMS34010
    Voir le lien wiki

    • Autre exemple qui mérite d’être mentionné : le SGI IMPACT