- Les dépenses d’investissement des centres de données IA occupent désormais une place sans précédent dans l’économie américaine et mondiale
- En 2025, les investissements américains liés aux centres de données IA devraient représenter environ 2 % du PIB, avec une contribution estimée à 0,7 % de croissance du PIB
- Cet énorme volume d’investissement se détourne des industries manufacturières, des infrastructures et d’autres investissements de venture pour se concentrer sur l’IA
- Le phénomène se propage à un rythme comparable aux booms d’investissement dans les chemins de fer et les infrastructures de télécommunications, et a déjà dépassé l’ancien pic d’investissement dans les télécoms
- En conséquence, l’investissement dans les centres de données IA amortit le ralentissement économique tout en provoquant aussi l’assèchement des financements dans d’autres secteurs, de vastes restructurations et une baisse de l’emploi
Updates & Erasures
- Alors que la polémique autour de la rénovation du siège de la Réserve fédérale américaine se poursuit, les critiques contre les dépenses publiques continuent
- Des articles récents montrent des responsables gouvernementaux mécontents de la rénovation du bâtiment de la banque centrale
- Entre le leadership de Powell à la Fed et la rénovation du bâtiment, la situation donne lieu à des sarcasmes et du mécontentement
Honey, AI Capex Ate the Economy
État des lieux des dépenses d’investissement des centres de données IA
- L’ampleur des investissements dans les centres de données IA est telle que même Xi Jinping, en Chine, a mis en garde les gouvernements locaux contre un excès d’investissement dans l’IA, le calcul et les nouvelles énergies
- On compte déjà plus de 250 nouveaux centres de données en Chine, tandis que la fièvre de l’investissement dans les infrastructures IA se propage à l’échelle mondiale
- Dans le cas des États-Unis, une estimation fondée sur les revenus des centres de données de Nvidia suggère qu’en 2025, les dépenses d’investissement IA (Capex) atteindront 2 % du PIB américain, avec une contribution de 0,7 % à la croissance du PIB
Examen de la borne basse de l’ampleur de l’investissement IA
- Le PIB américain attendu en 2025 est estimé à $25T
- Revenus annuels de Nvidia liés aux centres de données : environ $156.4B, dont 99 % liés à l’IA
- Part de Nvidia dans les dépenses d’investissement totales des centres de données : 25 à 35 %
- En appliquant un multiplicateur d’impact économique de 1,5 à 2x, les dépenses annuelles totales de capex des centres de données sont estimées à environ $520B
- Avant 2022, le capex IA représentait moins de 0,1 % du PIB, mais il a été multiplié par plus de 10 en trois ans
- Même comparé aux grands cycles historiques d’investissement dans les infrastructures, comme le rail ou les télécoms, son ampleur augmente fortement
- En particulier, il a déjà dépassé le pic des investissements télécoms de la bulle dot-com et continue de croître
- Les montants investis dans les centres de données représentent environ 20 % de l’âge d’or des chemins de fer au XIXe siècle, mais ont explosé en très peu de temps
D’où vient le capex de l’IA
- Les sources de financement des centres de données et des infrastructures IA sont les suivantes
- Flux de trésorerie internes (Microsoft, Google, Amazon, Meta et autres grands groupes tech)
- Émission de dette (obligations, etc., en hausse)
- Actions et émissions secondaires
- Venture capital / private equity (startups d’infrastructure IA comme CoreWeave, Lambda, etc.)
- SPV (véhicules ad hoc), leasing, financements alternatifs adossés à des actifs (Meta, etc.)
- Engagements de consommation cloud (principalement chez les hyperscalers)
- Cette concentration de l’investissement sur l’IA freine les flux de capitaux vers les autres secteurs
- Les fonds de venture capital ne vont presque plus vers les domaines hors IA
- Le VC hors sciences de la vie est aujourd’hui, dans les faits, centré presque uniquement sur l’IA
- Les entreprises de cloud computing concentrent leurs investissements sur des IDC centrés sur les GPU plutôt que sur leur activité cloud historique
- Chez Amazon, Microsoft et d’autres grands groupes, la hausse des coûts des centres de données IA entraîne des réductions d’effectifs et des restructurations
- Les sociétés cotées liées à l’IA ont vu leurs multiples de valorisation s’envoler, tandis que les entreprises d’autres secteurs peinent à lever des capitaux
- À mesure que les financements affluent vers les entreprises IA, l’industrie manufacturière et les autres infrastructures souffrent d’un manque relatif de capitaux
Les transformations structurelles de l’économie provoquées par l’investissement IA
- Le boom de l’investissement IA accélère la contraction des investissements dans d’autres segments d’infrastructure et la recomposition du tissu industriel
- Cela rappelle le précédent de la bulle des infrastructures télécoms, qui avait conduit à une forte baisse des investissements dans d’autres infrastructures
- La vague actuelle d’investissements dans les centres de données IA fait craindre, elle aussi, des effets négatifs : assèchement du capital hors IA, restructurations massives et baisse de l’emploi
Un mystère économique en partie résolu
- Malgré des facteurs d’inquiétude récents comme les conflits commerciaux, l’incertitude politique et les risques bureaucratiques, le fait que les craintes de récession restent relativement contenues constituait une énigme
- L’explication est qu’un immense « plan de relance privé » fondé sur l’investissement dans les centres de données IA mené par le secteur privé est actuellement à l’œuvre
- Il a déjà dépassé le pic des investissements télécoms de l’époque de la bulle dot-com et se rapproche du pic des investissements ferroviaires du XIXe siècle
- En remontant le calcul, sans l’investissement dans les centres de données IA, la croissance du PIB américain au premier trimestre 2025 aurait probablement chuté jusqu’à –2,1 %
- En conséquence, le capex IA compense le ralentissement économique et joue en pratique un rôle de camouflage de la fragilité économique réelle
Conclusion
- L’explosion des investissements dans l’IA et les centres de données sur une période aussi courte constitue un moment exceptionnel, rare dans l’histoire économique
- Au-delà des débats pour ou contre la croissance explosive de l’IA et des centres de données, la vitesse des progrès technologiques et de l’injection de capital est anormalement élevée
- Les centres de données IA ne sont pas des infrastructures utilisées pendant des décennies, voire des siècles, comme les chemins de fer ou les routes ; ils se caractérisent par une durée de vie courte et une dépréciation rapide
- Comme ces investissements massifs suivent un cycle technologique de court terme, ils s’accompagnent d’un recul des investissements dans les autres secteurs, de licenciements massifs et d’un ralentissement de la croissance hors IA
- Le capital est actuellement réalloué très rapidement vers l’IT, depuis le venture et les budgets internes notamment, ce qui expose certains secteurs à un assèchement durable de l’investissement et à de vastes restructurations
- Alors même que l’IA n’est pas encore largement utilisée de manière concrète, on observe déjà une baisse de l’emploi et une recomposition industrielle qui avancent à grande vitesse — une situation ironique
Rougher Notes
2 commentaires
À en voir le résumé des commentaires, certains semblent penser que 2 % n’est pas énorme aujourd’hui, mais à ce rythme d’augmentation, il faut se demander à combien on arrivera en 2026. Si l’AGI n’est pas réalisable dans un avenir très proche, j’ai l’impression qu’en 2026, voire peut-être jusqu’en 2027, l’affrontement entre optimistes et pessimistes risque d’être vraiment déroutant.
Avis Hacker News
Il semble que la déclaration de Xi Jinping provienne d’un article exagéré du FT. L’article chinois d’origine a un ton bien plus modéré. L’IA et les VE n’étaient pas des thèmes majeurs de la réunion ou du rapport, ils n’ont été que brièvement mentionnés. L’avertissement de Xi Jinping portait sur la « concurrence aux réalisations politiques » que l’on observe à nouveau dans les industries de l’IA et des VE. Quand le gouvernement central fixe des objectifs de politique industrielle, les gouvernements locaux s’allient aux entreprises pour lancer des « projets » de façade, qui finissent le plus souvent par se limiter à la construction d’usines avant de s’arrêter. C’est depuis longtemps un vrai casse-tête pour le pouvoir central, et le message essentiel de Xi était que le même problème existe aussi dans l’IA et les VE. Article original : https://paper.people.com.cn/rmrb/pc/content/202507/17/content_30088242.html
1,2 % du PIB, ça ne semble pas si extrême. C’est bien inférieur à d’autres projets innovants comparables. Par exemple, le programme Apollo a atteint 4 %, les chemins de fer 6 %, le plan de relance Covid 27 %, et les dépenses de défense pendant la Seconde Guerre mondiale sont montées jusqu’à 40 %
Ma première réaction était la même. 1,2 %, ça ne paraît pas énorme. On dirait surtout que les médias ont choisi un titre sensationnaliste. Si on regardait plutôt des chiffres comme la consommation d’eau et d’énergie, ce serait peut-être plus inquiétant. C’est un peu hors sujet, mais environ 9 % du PIB américain vient des services financiers, et personnellement je trouve que c’est un chiffre qui mérite davantage de vigilance
Rapporté au PIB total, ça paraît faible, mais c’est surtout parce que notre PIB est immense. Cette somme de 1,2 % équivaut tout de même à l’intégralité du PIB de la Norvège. Ça peut sembler anodin, mais c’est aussi un montant important comparé aux 3,4 % de dépenses militaires cette année
Je pense qu’il ne faut pas seulement regarder le niveau du chiffre, mais la trajectoire, la tendance et la signification de sa pente. Le capital se déplace de nombreux secteurs vers l’IA, et la durée de vie des actifs n’est pas la même non plus — les chemins de fer durent des décennies, voire des siècles, alors que l’IA, on ne sait pas si ce sera même quelques années. Il y a aussi l’argument de l’auteur selon lequel « sans l’investissement dans les data centers IA, la baisse du PIB au premier trimestre aurait atteint –2,1 % »
Cela n’a commencé qu’il y a 2 ans à peine ! 1,2 %, c’est déjà énorme. Le simple fait qu’une telle comparaison soit possible est stupéfiant
Le cœur de l’article, c’est de se demander si un investissement d’une telle ampleur peut être justifié. Répondre simplement qu’“on ne parle que de quelques % du PIB, donc tout va bien” esquive le fond du problème
Les chemins de fer ont diffusé le capital dans l’ensemble de la société et conduit à une hausse durable de la richesse pour un grand nombre de personnes. En revanche, l’IA risque de concentrer le capital chez les riches existants et d’entraîner, à long terme, une baisse de richesse pour la classe moyenne. Si le pouvoir d’achat de la population diminue, cela n’aide pas la croissance économique, donc ce boom d’investissement dans l’IA suscite des doutes
J’aimerais qu’une fois l’effet de mode autour de l’IA et des data centers retombé, on puisse utiliser cette capacité pour des choses plus utiles, par exemple la découverte de médicaments
Lors du boom Internet des années 1990, on a aussi déployé de la fibre optique à l’excès et sans discernement. Après l’éclatement de la bulle Internet, ces actifs ont été liquidés à bas prix, permettant à de nouvelles startups de construire des réseaux nationaux à moindre coût. Les « vestiges » de ces bulles ont souvent servi de carburant bon marché à la génération suivante d’entreprises. Les data centers suivront probablement le même schéma : même s’il y a surcapacité aujourd’hui, elle finira forcément par être réutilisée pour de nouveaux usages
À propos de cet effet de mode, je ne comprends pas pourquoi tant de gens sont obsédés par l’idée que l’IA remplacera à 100 % les développeurs et autres emplois de cols blancs. Cela ressemble à un fantasme étrangement apocalyptique et nihiliste, et je n’adhère pas à ce battage. Je me demande si je suis le seul
À l’échelle mondiale, même les capacités actuelles des LLM (grands modèles de langage) ne sont pas encore suffisamment déployées. Même si l’on ne parvenait pas à construire quelque chose de plus intelligent à partir du niveau actuel, l’automatisation des tâches répétitives dans divers secteurs pourrait encore progresser pendant des années
Je suis surpris de voir revenir ici des gens qui minimisent l’IA et son progrès irrésistible. Rien qu’en regardant ce qui s’est déjà produit — échecs, go, jeux de stratégie, prédiction de structure des protéines, etc. — il semble clair que presque tous les problèmes formalisables et vérifiables finiront par être résolus par l’IA. Je pense aussi que l’ASI spécialisée par domaine n’est qu’une question de temps. Je recommande vivement à tout le monde de lire The Bitter Lesson et Verifier’s Law
Nous ne le pouvons pas. Au final, on licenciera des ingénieurs pour rentrer dans les critères, et l’équipement restant sera lui aussi supprimé
J’aimerais qu’on impose que tous les nouveaux data centers soient construits uniquement avec de l’énergie renouvelable. Le surcoût ne devrait pas être si important par rapport au coût total, et des groupes de cette taille peuvent largement l’absorber. Une telle politique pourrait même accélérer les progrès de la prochaine génération de petits réacteurs nucléaires modulaires
Beaucoup de grandes entreprises s’intéressent déjà aux technologies nucléaires de petite taille pour alimenter leurs data centers. Le principal problème est de trouver les sites raccordés à un réseau capable de faire tourner de telles installations. Il suffit de parler 30 minutes avec quelqu’un du secteur pour constater que le sujet central, c’est le nucléaire. J’espère que cette mode, portée par des capitaux abondants, durera assez longtemps pour qu’on voie de vrais réacteurs à uranium déployés sur le terrain, car ce serait un effet très positif. Comme pour les chemins de fer ou la fibre optique, on pourrait se retrouver avec des infrastructures physiques durables. Les anciens « robber barons » laissaient au moins derrière eux des infrastructures matérielles ; les booms plus récents n’ont presque rien laissé
En Europe, tous les nouveaux data centers sont déjà tenus d’utiliser des énergies renouvelables. Aux États-Unis aussi, Google, Microsoft, Meta et AWS signent les plus gros contrats d’achat d’énergie renouvelable au monde. Microsoft à elle seule investit environ 20 milliards de dollars. Le blocage aux États-Unis ne vient pas d’un manque de demande, mais de problèmes d’autorisations, de zonage, etc., qui freinent l’installation des renouvelables. Rien que la capacité en attente de raccordement au réseau atteint 100 GW, soit l’équivalent de 10 % de la production électrique totale américaine. Commander davantage ne résout pas en soi un goulot d’étranglement qui prend du temps. À l’inverse, des acteurs comme xAI/Grok font tourner de grands clusters 100 % au gaz. Ils les exploitent dans des sites médiocres tant en électricité qu’en refroidissement, avec 35 turbines à gaz sur remorque et une cinquantaine de camions frigorifiques. C’est très inefficace et extrêmement nocif pour l’environnement, et je pense que ce type de système devrait être interdit
Aux États-Unis, même sans obligation, le marché est déjà en train de changer. 94 % des nouvelles capacités de production installées en 2024, et 93 % en 2025, relèvent des renouvelables ou du stockage par batteries, et cette tendance devrait se poursuivre. Les nouvelles centrales fossiles se limitent essentiellement à un peu de gaz naturel, souvent via la conversion d’anciennes centrales à charbon. Les projets d’extension du gaz naturel sont eux-mêmes au plus bas depuis le boom du schiste. Les renouvelables ont déjà gagné
Les data centers préfèrent une alimentation électrique « ferme » pour éviter qu’un actif coûteux reste inutilisé. Le solaire et l’éolien sont intermittents. Les nouvelles centrales à gaz demandent des années de planification. Et disposer de plus de 12 heures de batteries pour compenser le solaire en hiver n’est pas non plus gratuit
Ce serait bien aussi que le matériel lui-même soit renouvelable
Il est incohérent d’affirmer d’un côté qu’une grande partie de l’argent dépensé en CapEx IA vient d’autres secteurs, qui se retrouvent donc « affamés » par la baisse de l’investissement, et de prétendre en même temps que cet argent se multiplie dans l’ensemble du PIB. Si les fonds ont simplement été déplacés, il faut appliquer le même effet multiplicateur aux deux côtés
L’argument principal du texte repose sur l’idée que l’économie serait un jeu à somme nulle. Or l’économie n’est clairement pas à somme nulle. Ce n’est pas parce que l’investissement se concentre sur l’IA qu’il peut être redirigé instantanément vers d’autres secteurs à l’identique. Si l’IA attire autant de capitaux aujourd’hui, c’est parce qu’on en attend une valeur importante. Personnellement, je pense que cette valeur sera bien supérieure à celle des chemins de fer. Il peut certes y avoir des excès et du surinvestissement dans certains matériels ou certaines zones, mais on n’est pas encore, me semble-t-il, dans la situation de « quasi-effondrement » décrite par l’auteur
Comme l’économie agit toujours de façon complexe, il ne faut pas être excessivement optimiste non plus. Comme le souligne l’auteur, il est vrai qu’à court terme, l’investissement dans l’IA réduit celui d’autres secteurs
Même si ces investissements massifs s’avèrent excessifs, ils ont de fortes chances de devenir utiles à long terme. On a surdéployé l’infrastructure Internet initialement pour pets.com, puis de vraies « killer apps » comme Amazon, YouTube ou Zoom sont apparues, transformant ces erreurs d’investissement en fondation de la société future. Les investissements actuels dans l’IA pourraient laisser une trace historique comparable. À ce sujet, je recommande Technological Revolutions and Financial Capital de Carlota Perez
Donc le progrès des transistors, autrement dit Moore’s Law, a encore au moins 10 ans devant lui. Il a porté la croissance des smartphones (2008~2023), et les capitaux déjà engagés couvrent les 2 à 3 prochaines années de production de semi-conducteurs (2nm, A20, puis bientôt A18/14). Vers 2030~2032, l’élan pourrait encore suffire pour aller jusqu’à A10, voire A8. Même si le rythme ralentit, il y a de quoi tenir jusqu’en 2035. Même si on atteignait A5 en 2035, cela ne représenterait qu’un gain de densité d’environ 12x. En ajoutant le packaging, les chiplets, les interconnexions et autres améliorations, on arrive peut-être à 30~40x. On reste encore très loin des 1000~10000x de compute réclamés par beaucoup d’entreprises de l’IA. Et il faudrait aussi que l’augmentation de la bande passante mémoire suive au même rythme
L’aspect paradoxal de l’automatisation, c’est qu’au lieu d’augmenter simplement la taille de l’économie, elle fait aussi disparaître certains secteurs. Il peut y avoir plus de biens, mais si ceux-ci ne confèrent plus de statut social, leur valeur baisse au contraire. Autrefois, un clou représentait peut-être 0,5 % de l’économie ; aujourd’hui, même le propriétaire d’une usine de clous a de faibles marges et peu de statut social. Si le développement frontend logiciel est automatisé, son poids économique et social diminuera lui aussi. Le statut social est au fond un jeu à somme nulle, donc les gens dépenseront ailleurs pour en acquérir
J’attends avec impatience qu’on trouve un moyen d’optimiser le calcul reconfigurable sur FPGA pour réduire de plus de 90 % le coût de calcul des LLM
J’aimerais qu’il y ait davantage de recherche en informatique théorique dans ce domaine. Si l’on reconnaît que toutes les techniques de Machine Learning sont au fond des techniques de « compression », on devrait pouvoir estimer la taille minimale d’un LLM à partir de la quantité d’information encodable dans une taille de paramètres donnée, de la relation entre perte d’information et performance, et de la quantité d’information contenue dans le dataset brut. Je pense que la taille des LLM est excessive, mais en même temps les données qu’ils cherchent à contenir sont tellement vastes qu’ils doivent en réalité être plus grands qu’on ne le pense. Puisque la compression avec perte est au cœur de la « généralisation » des LLM, il faut une capacité énorme pour conserver l’information de façon satisfaisante
Je me demande d’où viendrait ce gain de performance. Le matériel actuel sait déjà exécuter les GEMM (multiplications générales matrice-matrice) aussi vite que possible ou presque
Parmi mes connaissances dans le monde des puces, beaucoup se plaignent que Qualcomm détient de nombreux brevets sur les FPGA, ce qui freinerait toute innovation FPGA réellement significative
Pas besoin d’attendre. Les FPGA ne sont pas conçus pour ce type d’architecture. Leur efficacité énergétique est bonne, mais à cause du surcoût de placement et de routage, de la mémoire limitée (la plupart des FPGA du marché n’ont pas de HBM), des fréquences plus basses et d’une expérience de développement pénible, ils ont peu de chances de devenir la solution principale
Des ASIC existent déjà. On peut prendre Google TPU comme exemple pour se faire une idée du coût. La HBM (mémoire à haute bande passante) elle-même est déjà très chère