30 ans d’histoire des GPU qui ont transformé chaque époque
(sheets.works)- Data story qui organise 49 GPU de 1996 à 2025 par époque afin de visualiser l’évolution technologique et les changements du marché
- Chaque génération est distinguée selon le nombre de transistors, la consommation électrique, le prix et les jeux emblématiques, offrant une vue d’ensemble claire de l’évolution des GPU
- De Voodoo Graphics à la RTX 5090, les performances, la consommation et les prix ont tous connu une croissance explosive
- Le nombre de transistors est passé de 1M à 92B, le TDP de 15W à 575W et le prix de $299 à $1,999, tandis que les calculs IA et le DLSS se sont imposés comme éléments centraux des générations récentes
- Le GPU est désormais bien plus qu’un simple moteur de rendu : il s’étend en plateforme pour l’IA, la physique et la simulation, symbole de 30 ans d’évolution technologique
Chronologie de 30 ans d’évolution des GPU
- Data story qui classe 49 GPU par ordre chronologique de 1996 à 2025 et visualise, pour chaque génération, les jeux emblématiques et les caractéristiques techniques
- Pour chaque carte, sont indiqués la capacité mémoire, le nombre de transistors, la consommation (TDP), le prix de lancement (ajusté à 2025) ainsi que le jeu symbolisant sa génération
- Le découpage par époque se compose de Pioneering Era, DirectX Era, Golden Age, HD Gaming Era, Modern Era, RTX Era, Current Gen
- Chaque période met en évidence les points de bascule de la technologie graphique et les changements de leadership sur le marché
- À la fin, une comparaison visuelle confronte la part de marché des GPU selon le Steam Hardware Survey (mars 2026) et l’écart entre popularité et prix
-
Période pionnière (1996–1999)
- Voodoo Graphics (1996) est le premier accélérateur 3D grand public ; en tant que carte dédiée à la 3D, elle nécessitait une connexion en passthrough VGA avec une carte 2D
- 4MB de mémoire, 1M de transistors, TDP de 15W
- Jeu emblématique : Quake (1996)
- Voodoo 2 (1998) prend en charge pour la première fois le SLI (Scan-Line Interleave), doublant les performances avec deux cartes
- 12MB de mémoire, 8M de transistors, TDP de 18W
- Jeu emblématique : Half-Life (1998)
- RIVA TNT (1998) est la réponse concurrente de NVIDIA à 3dfx, avec une architecture « TwiN Texel » améliorant le traitement des textures
- 16MB de mémoire, 7M de transistors
- RIVA TNT2 (1999) est la carte qui a permis à NVIDIA de prendre la première place du marché
- 32MB de mémoire, 15M de transistors
- Rage 128 Pro (1999) a été adoptée dans l’iMac G3 et est devenue la plus utilisée sur le marché Mac
- 32MB de mémoire, 8M de transistors
- GeForce 256 DDR (1999) a été commercialisée comme le « premier GPU au monde », marquant la première utilisation du terme GPU
- 32MB de mémoire, 17M de transistors, TDP de 50W
- Voodoo Graphics (1996) est le premier accélérateur 3D grand public ; en tant que carte dédiée à la 3D, elle nécessitait une connexion en passthrough VGA avec une carte 2D
-
Ère DirectX (2000–2003)
- GeForce 2 GTS (2000) introduit le GigaTexel Shader et favorise la démocratisation des graphismes 3D
- Jeu emblématique : Diablo II (2000)
- GeForce 3 (2001) prend en charge les premiers shaders programmables (Shader Model 1.0) ; une version personnalisée a été intégrée à la Xbox
- Radeon 9700 Pro (2002) est la première à prendre en charge DirectX 9.0 et dépasse NVIDIA grâce à un bus 256 bits
- GeForce FX 5800 Ultra (2003) était si bruyante qu’on la surnommait « Dustbuster »
- GeForce FX 5900 Ultra (2003) a tenté de faire oublier l’échec du modèle précédent, mais la série FX reste considérée comme la pire génération de NVIDIA
- GeForce 2 GTS (2000) introduit le GigaTexel Shader et favorise la démocratisation des graphismes 3D
-
Âge d’or (2004–2007)
- GeForce 6800 GT (2004) est la première à prendre en charge Shader Model 3.0 et le SLI sur PCIe
- Radeon X800 XT (2004) était efficace, mais limitée par l’absence de prise en charge de Shader Model 3.0
- GeForce 7800 GTX (2005) est la dernière génération avant les shaders unifiés
- GeForce 8800 GTX (2006) introduit pour la première fois les shaders unifiés (cœurs CUDA) et DirectX 10, ouvrant l’ère du GPGPU
- Jeu emblématique : Crysis (2007)
- GeForce 8800 GT (2007) offrait des performances de niveau GTX à moitié prix, devenant l’un des GPU les plus populaires de l’histoire
-
Ère du gaming HD (2008–2012)
- Radeon HD 4870 (2008) est la première à utiliser de la mémoire GDDR5, à un tarif inférieur de $350 à celui de la GTX 280
- Radeon HD 5870 (2009) est la première à prendre en charge DirectX 11 et à dépasser les 2 TFLOPS
- GeForce GTX 480 (2010) était surnommée « Thermi » à cause de sa chauffe, avec un TDP de 250W
- GeForce GTX 560 Ti (2011) était la carte « sweet spot » du 1080p au prix de $249
- GeForce GTX 680 (2012) introduit le GPU Boost, améliorant fortement l’efficacité
- Radeon HD 7970 (2012) marque le début de la gravure en 28nm et de l’architecture GCN, et a été très prisée pour le minage de cryptomonnaies
-
Ère moderne (2013–2017)
- GeForce GTX 970 (2014) a suscité la controverse avec le « scandale des 3.5GB », entraînant une indemnisation de $30 dans le cadre d’un recours collectif
- GeForce GTX 980 Ti (2015) offrait 95% des performances de la Titan X à $999 pour seulement $649
- GeForce GTX 1060 6GB (2016) est restée n°1 du Steam Survey de 2017 à 2022
- GeForce GTX 1080 (2016) a représenté le plus grand bond générationnel en 10 ans grâce à la gravure en 16nm
- GeForce GTX 1080 Ti (2017) est souvent appelée la « dernière grande GTX » et a été conservée longtemps par de nombreux utilisateurs
- Radeon RX 580 (2017) a vu son prix tripler avec le boom du minage
-
Ère RTX (2018–2023)
- GeForce RTX 2080 (2018) est la première à prendre en charge le ray tracing matériel et le DLSS
- GeForce RTX 2060 (2019) introduit le ray tracing sur le segment milieu de gamme
- Radeon RX 5700 XT (2019) est le premier GPU RDNA gravé en 7nm
- GeForce RTX 3080 (2020) a été au cœur de la pénurie de GPU liée au Covid et aux cryptomonnaies
- GeForce RTX 3090 (2020) a porté le prix des GPU grand public à quatre chiffres avec ses $1,499
- GeForce RTX 4090 (2022) a été au centre de polémiques autour de la fusion du connecteur 12VHPWR
- Radeon RX 7900 XTX (2022) est le premier GPU en chiplets d’AMD, vendu $200 de moins que la RTX 4080
- Intel Arc A770 (2022) marque le retour d’Intel sur les GPU dédiés après 24 ans, avec des problèmes de pilotes DX9/11
- GeForce RTX 4060 (2023) a été jugée sans réel effet de renouvellement générationnel, avec une VRAM réduite à 8GB
- GeForce RTX 4070 (2023) offre des performances de niveau RTX 3080, mais a été critiquée pour sa hausse de prix
-
Génération actuelle (2025)
- GeForce RTX 5070 (2025) offre des performances de niveau RTX 4090 à $549 grâce au DLSS 4
-
GeForce RTX 5080 (2025) est proposée à $999, soit le même prix que la RTX 4080, confirmant l’ancrage des tarifs intermédiaires à quatre chiffres
- GeForce RTX 5090 (2025) est le premier GPU grand public à $2,000, avec 92.2B de transistors et un TDP de 575W
- Radeon RX 9070 XT (2025) marque le premier RDNA intégrant du matériel dédié à l’IA, AMD ayant renoncé au marché haut de gamme
-
État du marché des GPU (Steam Hardware Survey, mars 2026)
- Le GPU le plus populaire est la RTX 3060 (4.1%), tandis que le vaisseau amiral RTX 5090 ne représente que 0.42%
- 8 des 10 premiers modèles sont des produits NVIDIA, et le RTX 4060 Laptop GPU occupe la 2e place avec 4.04%
- Les RTX 3060 Ti, RTX 4070, RTX 2060 figurent également en tête du classement
- Le flagship est à $1,999, le modèle grand public à $329 : l’écart de prix est devenu extrême
- Les données sont visualisées selon le nombre de transistors et l’année de lancement par génération de GPU, avec comparaison détaillée des spécifications au clic
Conclusion
- De la Voodoo Graphics de 1996 à la RTX 5090 de 2025, les GPU ont connu une croissance explosive des performances, de la consommation et des prix
- Le nombre de transistors est passé de 1M à 92B, le TDP de 15W à 575W et le prix de $299 à $1,999
- Le centre de l’innovation a évolué de 3dfx → NVIDIA → AMD → recentrage autour de NVIDIA, et plus récemment, les calculs IA et le DLSS sont devenus centraux
- Le GPU évolue au-delà du simple rendu pour devenir une plateforme pour l’IA, la physique et la simulation
- Cette visualisation de données présente 30 ans d’évolution des GPU sous la forme d’un document historique technologique visible d’un seul coup d’œil
1 commentaires
Commentaires Hacker News
Cette liste ne ressemble pas, comme son titre le laisse entendre, à une liste curatée, mais plutôt à quelque chose où un LLM a collé des descriptions approximatives sur des GPU populaires
Le design du site est si réussi qu’il donne l’illusion d’un travail très soigné
Je suis peut-être dépassé, mais j’ai l’impression que les séries RTX 4000/5000 n’ont pas une importance si grande que ça
À l’inverse, les S3 ViRGE ou Matrox G200 étaient importantes à l’époque, même si leur impact à long terme a été limité
Voir le wiki S3 Texture Compression
Ce n’est pas parfait, mais la plupart des nouveaux jeux le prennent en charge, et en pratique presque personne ne le désactive
-vo mgaou-vo xmgaBeaucoup de GPU de cette liste sont décevants parce qu’ils sont simplement plus rapides que la génération précédente ou juste des versions avec plus de RAM
J’aurais préféré une approche davantage centrée sur les innovations d’architecture
Personnellement, j’ai l’impression que depuis Unreal Engine 4, le contenu compte plus que les graphismes
Le Rendition Vérité 1000 est un GPU qui mérite absolument d’être mentionné
Voir l’article de Fabien Sanglard. Il est sorti avant le Voodoo 1 et apportait la prise en charge de glQuake et de Tomb Raider en gl
Associer la RX 5700 XT à Control est un choix étrange
À l’époque, AMD ne prenait pas en charge le ray tracing, et Control a été l’un des premiers jeux à proposer une implémentation RT marquante
Avec des cubemaps, SSR et overlays raster, on pouvait déjà reproduire 90 % du résultat
Au contraire, les jeux qui mettaient le RT en avant utilisaient souvent mal les techniques existantes, ce qui rendait l’écart plus impressionnant qu’il ne l’était vraiment
La vraie force du RT se voit surtout sur des surfaces réfléchissantes irrégulières ou dans des scènes complexes
On est en plein mode nostalgie totale
Il y a un mois, j’ai rangé un vieux desktop avec un i7-4790k et une 1080 Ti, et ça m’a rappelé toute une époque
Il fut un temps où je faisais du dual boot avec Ubuntu, Elementary et Arch, et avant ça la 8800 GT était la carte de mes rêves
À une époque je fantasmais sur les Surface, maintenant je trouve bien plus intéressant de faire tourner des LLM en local sur une 4070 Founders
Le CPU est trop vieux, donc Civ 7 ne se lance pas (problème d’instruction DRM)
Je suis déçu par les cartes récentes qui ont trop peu de mémoire GPU. Les 8 Go de VRAM étaient l’élément clé pour la pérennité
L’infographie est belle, mais en réalité il n’y a pas 49 GPU vraiment significatifs
Depuis Pascal, je pense qu’il n’y en a qu’un ou deux qui comptent vraiment
Après D3D9 (2002), les GPU ont pratiquement tous implémenté les mêmes fonctions, c’est à ce moment-là que la différenciation a disparu
Pour moi, le GPU le plus marquant reste la 8800 GT
Associée à l’Orange Box de Valve, c’était le meilleur rapport qualité-prix
La 5700 XT est la carte qui a tenu le plus longtemps parmi tous les GPU que j’ai utilisés, et elle est encore tout à fait d’actualité
Le site n’avait pas de barre de défilement horizontale, donc il fallait faire glisser la section GPU à la souris. Je me suis demandé si j’étais juste devenu vieux
Il manque des GPU importants dans l’histoire du PC. Par exemple le TMS34010
Voir le lien wiki