Finance circulaire : le pari de 110 milliards de dollars de Nvidia rappelle-t-il la bulle des télécoms ?
(tomtunguz.com)- Alors que Nvidia injecte massivement des capitaux dans l’infrastructure IA, notamment via 110 milliards de dollars d’investissements incluant OpenAI, des inquiétudes émergent autour de la réapparition d’une structure de financement circulaire des fournisseurs similaire à celle de l’ancienne bulle des télécoms
- En 2025, les grandes entreprises IT américaines annoncent 300 à 400 milliards de dollars d’investissements dans l’infrastructure IA, ce qui accroît les risques liés à la concentration de la clientèle et aux prêts adossés à des GPU
- Contrairement à l’historique d’échec de Lucent, Nvidia se distingue par sa génération de trésorerie, la solvabilité de ses clients et sa transparence comptable, mais la concentration clients, la valorisation des actifs et la montée du silicium personnalisé sont pointées comme des facteurs de vigilance
- Il est souligné qu’un suivi continu est nécessaire pour déterminer si la demande en IA correspond à une demande réelle, si elle deviendra une infrastructure indispensable comme le cloud, ou si elle ne relève que d’une bulle
- Comme dans le cas de fraude comptable de Lucent, il faut surveiller de près la valeur des actifs, les modèles de revenus et le risque d’endettement chez Nvidia et dans l’ensemble du secteur afin d’éviter la répétition de risques structurels du passé
Introduction : Nvidia, la finance circulaire et l’ombre de la bulle des télécoms
- En 2025, Nvidia met en place 110 milliards de dollars de financement fournisseur au bénéfice notamment d’OpenAI, ravivant les comparaisons avec les grandes structures de finance circulaire de la bulle des télécoms
- Les Big Tech américaines annoncent pour 2025 des investissements records de 300 à 400 milliards de dollars dans l’infrastructure IA
- Ce volume d’investissement dépasse largement les précédents records annuels d’investissement d’entreprise dans les infrastructures
La stratégie de Lucent : les leçons de la finance circulaire
- En 1999, Lucent Technologies réalise 37,9 milliards de dollars de chiffre d’affaires au sommet de la bulle Internet, avant de chuter de 69 % en seulement trois ans et de finir par fusionner avec Alcatel
- À l’époque, des équipementiers comme Lucent, Nortel et Cisco fournissaient directement à leurs clients opérateurs télécoms des fonds pour acheter leurs équipements via des milliards de dollars de financement fournisseur
- Lucent : 8,1 milliards de dollars, Nortel : 3,1 milliards, Cisco : 2,4 milliards d’engagements de prêt
- Au départ, cette stratégie semblait profitable à tout le monde, mais avec la saturation du marché et le resserrement du financement, la majorité des clients (47 CLEC) ont fait faillite, 33 à 80 % des prêts n’ont pas été recouvrés, et la valeur des équipements s’est effondrée
- Dans les faits, les réseaux de fibre optique n’utilisaient que 0,002 % de leur capacité disponible, montrant que l’investissement est arrivé bien trop tôt par rapport à la demande
La stratégie de Nvidia : une structure de finance circulaire différenciée
- En 2025, Nvidia opère 110 milliards de dollars d’investissements directs (85 % de son chiffre d’affaires) ainsi que plus de 15 milliards de dollars de prêts adossés à des GPU
- Avec OpenAI, un engagement précis de 100 milliards de dollars est prévu (10 tranches, décaissements selon les étapes de construction de l’infrastructure, avec un apport effectif prenant la forme de leasing de GPU)
- D’autres investissements et l’extension du marché des prêts adossés à des GPU concernent aussi CoreWeave, NVentures, etc.
- Dans le cas de CoreWeave, l’entreprise détient 10,45 milliards de dollars de dette adossée à des GPU, et d’autres jeunes pousses de l’IA comme Lambda Labs utilisent elles aussi les GPU comme collatéral de prêt
Comparaison chiffrée : Lucent vs Nvidia (en dollars 2024)
| Élément | Lucent (2000) | Nvidia (2025) |
|---|---|---|
| Financement fournisseur | 15 milliards de dollars | 110 milliards de dollars |
| Flux de trésorerie opérationnel | 300 millions de dollars | 15,4 milliards de dollars (T2 exercice 22) |
| Chiffre d’affaires annuel | 34 milliards de dollars | 130 milliards de dollars |
| Part des 2 plus gros clients | 23 % | 39 % |
Points de vigilance : une nouvelle structure de risque de marché
1. Une base de clients IA encore plus concentrée
- Les 2 à 4 plus gros clients de Nvidia représentent 46 % du chiffre d’affaires, soit une concentration environ deux fois plus élevée que chez Lucent
- 88 % du chiffre d’affaires provient des data centers
2. Expansion des prêts adossés à des GPU et risque sur les stocks
- Les GPU servent de collatéral pour des prêts à taux élevé de 14 %, sur l’hypothèse qu’ils conservent leur valeur pendant 4 à 6 ans (environ trois fois le niveau des obligations investment grade)
- Mais la durée d’usage réelle des GPU semble n’être que de 1 à 3 ans en pratique (selon des exemples concrets chez Google et Meta)
| Entreprise | Avant 2020 | 2020 | 2022~2023 | 2024~2025 | Évolution |
|---|---|---|---|---|---|
| Amazon | 3 ans | 4→5 ans | 5 ans | 6→5 ans | première réduction |
| Microsoft | environ 3 ans | 4 ans | 6 ans | 6 ans | +100 % |
| environ 3 ans | 4 ans | 6 ans | 6 ans | +100 % | |
| Meta | environ 3 ans | 4 ans | 4,5→5 ans | 5,5 ans | +83 % |
| CoreWeave | N/A | N/A | 4→6 ans | 6 ans | +50 % (GPU) |
| Nebius | N/A | N/A | 4 ans | 4 ans | standard du secteur |
-
En 2025, Amazon a ramené sa durée d’amortissement de 6 ans à 5 ans, devenant le premier à appliquer une pratique comptable plus prudente
-
Alors que les CPU sont généralement utilisés pendant 5 à 10 ans, dans les data centers IA les GPU sont souvent remplacés au bout de 1 à 3 ans en usage réel (Meta Llama 3 : taux de panne annuel de 9 % → 27 % de matériels défectueux anticipés sur 3 ans)
-
De grandes institutions financières (comme Cerno Capital) s’interrogent : « ces politiques d’amortissement reflètent-elles vraiment la réalité économique et technologique, ou ne sont-elles qu’une stratégie d’“illusion” destinée à détourner l’attention des investisseurs ? »
4. Recours à des structures SPV (véhicules ad hoc)
-
Les grands groupes technologiques financent la construction de data centers via des coentreprises SPV avec des fonds de private equity comme Apollo
- Le SPV détient et exploite le data center, puis le met à disposition de l’entreprise tech via un bail de long terme
- La dette du SPV n’apparaît pas dans les états financiers de l’entreprise technologique (traitement hors bilan)
- En général, la structure comprend 10 à 30 % de fonds propres et 70 à 90 % de dette
-
Ces montages présentent des avantages, comme la protection de la qualité de crédit et une moindre visibilité des dépenses d’investissement, mais si le taux d’utilisation des data centers baisse ou si la valeur des GPU chute, les pertes frapperont d’abord les détenteurs de la fine couche de capital (equity holders)
-
Aujourd’hui, les actifs de data centers représentent 10 à 22 % des portefeuilles des principaux REIT, contre « 0 » il y a deux ans
5. Risque concurrentiel du silicium personnalisé
- L’usage d’accélérateurs IA développés en interne se diffuse : Microsoft (Maia), Google (TPU), Amazon (Trainium/Inferentia), Meta (MTIA)
- Si les clients basculent vers leurs propres puces, la valeur des actifs adossés à des GPU chez CoreWeave et d’autres pourrait baisser, ce qui amplifierait le risque du financement fournisseur de Nvidia
Différences fondamentales entre Nvidia et Lucent
- Lucent : manipulation de 1,1 milliard de dollars de revenus, 10 dirigeants poursuivis par la SEC, défiance envers les états financiers
- Nvidia : audit par PwC, amélioration de notation, plus de 50 milliards de dollars de trésorerie générés chaque année, 46,2 milliards de dollars de trésorerie nette conservés (2024)
- Lucent : la plupart de ses clients étaient fortement endettés et déficitaires
- Nvidia : ses principaux clients (Microsoft, Alphabet, Amazon, Meta, etc.) affichent en 2024 des fondamentaux solides, avec 451 milliards de dollars de flux de trésorerie opérationnel
- Chez Lucent, le taux d’utilisation des investissements n’était que de 0,002 %, alors que les principaux clients de Nvidia signalent aujourd’hui une pénurie d’infrastructure IA (contrainte d’offre)
Indicateurs à surveiller
- Taux d’utilisation des GPU : il faut suivre en continu si les GPU sont réellement utilisés dans les data centers ou simplement stockés
- Rentabilité d’OpenAI : il faut vérifier si la construction d’une infrastructure massive se traduit par des revenus suffisants
- Signes de défaut de dette : il faut surveiller d’éventuels défauts dans le marché des prêts adossés à des GPU, qui pèse 15 milliards de dollars
- Tendance de gestion des AR (Accounts Receivable) : la part des AR s’améliore (68 %→30 %), mais une nouvelle dégradation doit être surveillée
- Diversification clients : il faut suivre l’acquisition de nouvelles catégories de clients et la dépendance persistante à quelques très gros clients
- Enjeu du silicium personnalisé : si les hyperscalers se tournent vers leurs propres puces, l’exposition de Nvidia liée à son financement pourrait augmenter
- Tendance à la consolidation des fournisseurs : après une phase d’expérimentation avec de nombreuses alternatives, la demande pourrait au final se concentrer sur quelques fournisseurs
- Le taux d’usage réel de l’IA aux États-Unis est passé de 20 % en 2023 à 40 % en 2025
- Mais selon une étude du MIT, 95 % des pilotes de déploiement de l’IA ne produisent pas de résultats financiers concrets, ce qui met aussi en évidence des problèmes d’intégration
- Malgré cela, le salaire des travailleurs de l’IA a doublé et la productivité des utilisateurs a progressé jusqu’à 40 %, ce qui constitue des signaux positifs
- OpenAI a enregistré 4,3 milliards de dollars de chiffre d’affaires au premier semestre 2025, pour 4,7 milliards de dollars de pertes (dont la moitié liée à la rémunération en actions), et reste donc déficitaire
- Contrairement au passé, les grands clients disposent aujourd’hui de liquidités suffisantes, d’une gestion orientée performance, et d’une demande réelle en infrastructure
Conclusion : les risques structurels de la finance circulaire et le marché de l’IA en 2025
- La stratégie de financement fournisseur à grande échelle de Nvidia s’appuie clairement sur une forte croissance et une demande technologique réelle, mais elle intègre aussi des risques liés à la concentration clients, à la volatilité de la valeur des actifs et à l’adoption du silicium personnalisé
- Comme l’a montré le cas Lucent, si les actifs sont surévalués, si la dette se détériore ou si la transparence comptable recule, le risque peut rapidement se matérialiser ; un suivi strict des métriques clés et des évolutions du marché est donc nécessaire
Annexe : la fraude comptable de Lucent et la crise de la finance circulaire
- Lucent a fait l’objet d’une enquête de la SEC pour fraude comptable en 2000 (manipulation de 1,15 milliard de dollars de revenus et de 470 millions de dollars de bénéfice avant impôt)
- « Channel stuffing » : fourniture anticipée de produits invendus aux distributeurs, puis comptabilisation globale en chiffre d’affaires
- « Side agreement » : reconnaissance du chiffre d’affaires malgré l’octroi séparé de droits de retour et d’avantages particuliers
- « Manipulation des provisions » : réduction de la volatilité des résultats via la constitution et la reprise excessives de provisions pour pertes
- Lucent a écopé d’une amende de 250 millions de dollars et 10 dirigeants ont été inculpés
- Cas emblématique : après avoir accordé 2 milliards de dollars de financement à WinStar, WinStar a fait faillite, et Lucent a comptabilisé 700 millions de dollars de pertes
- Ce schéma a conduit entre 2001 et 2002 à 3,5 milliards de dollars de provisions pour créances douteuses, illustrant un cas typique de matérialisation du risque réel de défaut
1 commentaires
Commentaires sur Hacker News
J’ai travaillé dans les années 90 pour un petit FAI de quartier, et à l’époque Lucent était le plus avancé dans le domaine des équipements Internet ; nous utilisions des Portmaster 3 pour gérer les connexions en dial-up et nous avions aussi étudié les premières technologies sans fil de Lucent.
Grâce au Telecommunications Act de 1996, les opérateurs télécoms devaient louer leur infrastructure à des tiers, ce qui a fortement fait baisser les tarifs de location des T1 pour les FAI (un T1 est passé de 1 800 dollars par mois en 1996 à 600 dollars en 1999), puis les opérateurs ont poursuivi la FCC et la loi a été de fait neutralisée en 2003.
Explication Wikipédia sur les opérateurs locaux concurrents
Les écarts de prix étaient importants selon les régions ; dans le petit FAI où je travaillais, on est passé de 1 500 dollars par mois pour un T1 à 500 dollars, puis la boucle T1 jusqu’au client coûtait 100 dollars par mois, tandis qu’on dépensait plusieurs milliers de dollars pour un anneau OC12 SONET qui backhaulait toutes les lignes vers le datacenter.
La cause centrale de toutes ces variations de prix était l’obligation imposée par la loi télécom de vendre séparément les équipements réseau des ILEC.
La plupart des CLEC utilisaient de toute façon l’infrastructure physique des ILEC locaux, donc le changement structurel a été considérable.
Ce qui était intéressant, c’est qu’à la fin des années 90, quand le dial-up dominait encore, un T1 PRI voix (250 dollars par mois) coûtait moins cher qu’un T1 data (500 dollars par mois), donc c’était largement exploité.
Même après la neutralisation de la loi télécom, les ILEC ont continué à vendre des services de gros et de dégroupage, probablement parce qu’ils avaient déjà compris que c’était une activité à très forte marge.
J’ai travaillé dans une startup pendant le boom des télécoms.
À l’époque, des entreprises comme Cisco rachetaient même des startups qui n’avaient pas encore de produit, l’IPO était la seule porte de sortie, et les ingénieurs étaient bloqués par un lock-up de six mois.
Les plus chanceux ont pu sortir via une IPO ou une vente avant l’effondrement, puis après l’éclatement de la bulle, les financements se sont asséchés et presque toutes les startups ont disparu.
Après plusieurs années de creux, de nouvelles entreprises IT ont recommencé à émerger.
On dirait qu’à peine quatre ans de régulation ont suffi à modifier l’équilibre des forces entre les grands groupes télécoms et les petits FAI, et je trouve ça vraiment intéressant.
L’idée qu’une régulation précise ait mis le feu au développement d’Internet va à l’encontre des prédictions habituelles selon lesquelles l’absence de régulation serait fatale.
C’est la première fois que j’entends dire qu’une loi appliquée aussi brièvement aurait suffi.
La destruction de la concurrence télécom et l’acceptation du monopole ont été un énorme problème du système judiciaire.
La loi était claire, mais les tribunaux l’ont en pratique ignorée au motif que « poser de la fibre coûte cher ».
Sur les prix, il faut aussi rappeler que, même si les lignes T1 et OCx restaient très utilisées, le DSL est apparu entre 1996 et 1999 et a fortement tiré les prix vers le bas.
Les changements législatifs ont peut-être influencé le timing de la guerre des prix et de la bulle télécom.
Mais la guerre des prix elle-même était inévitable, et la bulle aussi était très probable.
L’investissement dans l’infrastructure télécom était une réaction à l’envolée complètement folle des valorisations des sociétés dot-com.
Les réseaux optiques utilisaient moins de 0,002 % de leur capacité maximale, et il y avait une marge pour augmenter les débits jusqu’à 60 000 fois ; c’était simplement trop en avance sur son temps.
Je ne pense pas que les GPU se retrouveront avec un tel excédent.
Si on peut leur demander des choses du genre « réfléchis cette nuit à une meilleure manière de refactorer la codebase, et propose-la-moi demain », il faudra bien plus de GPU qu’aujourd’hui.
Si une minute de GPU coûte 0,1 dollar, le faire tourner toute la nuit revient à 48 dollars, ce qui semble avoir beaucoup de valeur pour de la refonte de code, de la conception automobile, une couverture de livre, un business plan, ou à peu près n’importe quelle tâche.
Je ne crois pas non plus à l’idée que les GPU ne seront jamais en surplus ; au contraire, je pense qu’ils le seront forcément.
Les entreprises continuent d’acheter en masse les GPU qui arrivent sur le marché comme si la demande était infinie.
Pendant ce temps, la fatigue autour des LLM progresse, les modèles rétrécissent, et le matériel grand public s’améliore.
Au final, il y aura inévitablement beaucoup de GPU inactifs.
Dire que l’amélioration du code nécessitera des GPU, c’est voir petit.
Bientôt, l’IA générative servira à produire des films en ultra-haute résolution, voire en HDR et 120 images par seconde.
Ce type de travail coûtera entre 100 et 1 000 dollars par minute et exigera une énorme quantité de GPU.
L’armée américaine prévoit déjà de l’IA générative pour la visualisation du champ de bataille ; cela demandera une densité de calcul encore supérieure à celle de la vidéo haute résolution.
L’idée que l’IA puisse « améliorer » une codebase est intéressante.
Je n’ai encore jamais vu ça en pratique, donc je n’y croirai que lorsque je le verrai réellement.
Avec l’amélioration des algorithmes et des techniques, du matériel plus ancien pourrait encore rester utile.
L’idée du « réfléchis toute la nuit à la codebase… » repose sur une hypothèse fondamentalement erronée.
Les LLM actuels ne savent pas résoudre seuls des problèmes concrets de manière autonome.
Beaucoup espèrent que cela deviendra possible un jour, mais je pense plutôt qu’on est déjà proche de la limite des performances des LLM.
La bulle IA actuelle est le résultat d’une surestimation énorme du début de la courbe en S de cette technologie.
À ce jour, ce n’est pas suffisant.
L’histoire des bulles passées offre quelques repères, mais elle n’est pas si instructive que ça.
Bulle dot-com, bulle ferroviaire, chaque épisode est différent.
Au fond, tout tourne autour du business et du ROI.
Même si les flux de capitaux restent sains, si les rendements économiques ne sont pas historiquement exceptionnels, le risque d’effondrement finit par réapparaître.
Tout le monde court après la poule aux œufs d’or.
Quand Bezos a évoqué un projet de datacenters de plus de 10 GW dans l’espace, ça m’a fait penser que l’objectif n’est peut-être pas tant le ROI que la future structure du pouvoir : construire un monde dans lequel les ultra-riches n’auraient plus besoin du travail humain.
Commentaire HN lié
Article sur les propos de Bezos concernant des datacenters spatiaux
Je pense qu’en s’obsédant sur les mécanismes du passé, on restreint trop l’espace des futurs possibles.
La bulle dot-com n’a été qu’un seul chemin parmi beaucoup d’autres trajectoires possibles.
En raisonnant toujours de la même manière, on risque aussi de rater la façon dont la prochaine bulle se matérialisera.
Je m’inquiète un peu de savoir si la différence comptable entre Lucent et Nvidia, Microsoft, OpenAI ou Google n’est pas simplement le signe qu’on est devenu meilleur pour mentir plus subtilement et exagérer davantage que la réalité.
C’est seulement quand la bulle éclate que les vrais chiffres apparaissent.
Cette fois, il y a aussi la monnaie fiduciaire et le soutien des gouvernements, donc la situation diffère encore du passé.
J’étais au cœur de l’effondrement dot-com et télécom, et surtout le télécom a été bien plus sévère.
La fibre optique ne rouille pas, mais elle a été installée en gigantesque excès, et dix ans plus tard, grâce au DWDM, on n’utilisait réellement que 2 fibres sur 8, avec bien plus de longueurs d’onde qu’avant.
Je me demande quelle sera la valeur résiduelle d’un GPU d’occasion dans dix ans, et s’il pourrait exister pour les GPU surinvestis une sorte de « solution façon DWDM ».
On vit une époque vraiment fascinante.
Le plus gros problème de Nvidia, c’est que ses revenus ne sont pas pérennes, alors que le marché les valorise comme s’il s’agissait de revenus récurrents ; en réalité, il s’agit de CAPEX qui ne dureraient qu’un ou deux ans.
Je vois mal comment cette structure pourrait se prolonger indéfiniment.
L’action NVDA n’est pas particulièrement chère à l’extrême, elle se paie à peine 25 fois les EPS.
La croissance du chiffre d’affaires est rapide, et on est face à ce qui pourrait être la transition technologique la plus importante de l’histoire.
Le marché intègre déjà en partie un ralentissement de la croissance dans le cours.
Des entreprises comme Zoom ou Peloton, mises en avant pendant le Covid, ont elles aussi été valorisées comme si leur avenir allait se prolonger indéfiniment.
Le marché répète toujours ce schéma ; plus récemment, on l’a vu aussi avec l’impression 3D ou la viande alternative.
L’investissement dans OpenAI peut être interprété comme une couverture contre un ralentissement du CAPEX.
À chaque annonce de Nvidia, les cartes graphiques sont immédiatement en rupture de stock.
Les marges sont énormes, mais l’entreprise n’arrive toujours pas à satisfaire toute la demande.
Au fond, c’est juste de l’économie de base.
Il suffit que la demande dérape une seule fois pour que des GPU d’occasion inondent le marché, rendant inutile l’achat de produits neufs.
À ce moment-là, il sera impossible pour Nvidia de maintenir son niveau de revenus actuel.
C’est pareil pour TSLA.
La Bourse est en pratique une banque pour les riches, emballée sous forme de prêts et de crédit.
En réalité, ce n’est qu’une bulle, mais c’est un sujet qui ne concerne que les riches.
Nous, les gens ordinaires, ne sommes que du menu fretin.
Quand je travaillais dans « le télécom parmi les télécoms », nous n’avons finalement allumé de la dark fiber qu’en 2015, soit quinze ans plus tard, grâce à la demande en données mobiles.
L’ampleur du surdéploiement était vraiment énorme.
Le câble optique a toujours gardé une utilité, mais je doute que les GPU puissent rester utiles aussi longtemps.
Je parle ici d’expérience personnelle.
Les nouvelles fibres n’ont pas vraiment apporté de gros gains d’efficacité énergétique.
En revanche, l’efficacité des pelleteuses qui creusent le sol n’a pas changé non plus.
À la question « ces cartes pourront-elles servir longtemps ? », l’exemple donné dans l’article dit qu’en raison du stress subi, leur durée de vie pourrait n’être que d’un à deux ans.
En 2005, grâce aux appels longue distance, les télécoms étaient des vaches à lait, et lorsqu’en plus les commutateurs mécaniques étaient déjà amortis, elles imprimaient littéralement de l’argent, la régulation garantissant les profits.
Mais cette structure n’a pas duré très longtemps, et dans beaucoup de régions, les opérateurs ont essayé de se développer vers des services managés censés générer des « revenus non régulés » — par exemple des solutions du type DataDog.
C’est la nature même de l’activité : l’optimisme irrationnel peut à tout moment faire tomber une entreprise.
Les puces elles-mêmes n’auront sans doute pas une longue durée de vie, mais la R&D qui les a produites conserve de la valeur.
La vraie question est de savoir quelle part de cette valeur pourra être récupérée.
Les datacenters haute densité en construction pour soutenir les hyperscalers ressemblent en réalité beaucoup au surdéploiement de dark fiber.
Quand on a allumé ces fibres en 2015, on n’utilisait probablement pas encore des line cards achetées en 1998.
Fondamentalement, je pense que le plus grand enjeu reste l’incertitude autour de l’atteinte de l’AGI.
À l’heure actuelle, 90 % des investissements au niveau top-line reposent sur l’hypothèse qu’elle sera atteinte dans les deux à cinq prochaines années.
Si cela n’arrive pas assez vite, l’intérêt des investisseurs pourrait chuter brutalement.
On maintient pour l’instant l’attention grâce à la progression des benchmarks, mais je m’attends à ce que, d’ici six à douze mois, même les nouveaux jalons s’épuisent.
La vraie étape suivante devra être de montrer des résultats concrets dans le développement logiciel, la recherche contre le cancer, la robotique, etc.
Dans la structure actuelle, j’ai du mal à y croire.
Je pense que l’AGI est encore lointaine.
La plus grande opportunité se situe à mon avis dans des domaines comme le droit et la médecine, où la base de connaissances est immense et où les professionnels passent jusqu’au niveau graduate school pour l’acquérir.
Le codage verra en particulier l’usage des LLM progresser fortement.
Le problème, c’est qu’une fois les arriérés comme les refactorings pénibles absorbés, la simple génération de nouveau code ne suffira jamais à maintenir une bulle de demande matérielle du niveau actuel.
Même les hyperscalers consacrent à l’IA moins de la moitié de leur cash-flow opérationnel en CAPEX.
S’ils pariaient vraiment sur l’atteinte de l’AGI, l’ampleur serait bien plus grande.
« Le scepticisme que tu exprimes aujourd’hui est peut-être aussi infondé que celui d’il y a cinq ans quand on disait qu’une machine pensante était impossible ; les LLM existent déjà maintenant. »
Je ne comprends pas pourquoi les gens mettent des évaluations négatives.
Il suffit de parler à des chercheurs en IA pour voir qu’ils ont des attentes réalistes.
Mais plus on va du côté business, chez des gens qui ne connaissent pas la technique, plus les attentes deviennent excessives.
On en est déjà à réduire les effectifs et à revoir budgets, plans et recrutements sur la base de raisonnements du type « pour 20 dollars par mois, ChatGPT fera tout le travail ».
Quand, dans un an, ça ne marchera évidemment pas aussi bien, l’attitude envers l’IA se retournera immédiatement dans l’autre sens — colère, évitement, défiance envers les nouveaux produits, etc.
À mesure que les échecs s’accumuleront, la croissance ralentira, et avec elle viendront l’angoisse des investisseurs, la chute du cours des actions et la baisse des valorisations.
Ce que je ne comprends pas, c’est l’optimisme selon lequel la demande de GPU pour l’entraînement continuerait de croître aussi fortement qu’aujourd’hui.
Je comprends la demande pour l’inference, mais il existe déjà beaucoup d’excellents modèles gratuits, et ils tournent bien même sur des appareils grand public comme l’Apple M4 ou les APU AMD Max.
Dans ce contexte, je me demande vraiment s’il reste encore une demande aussi importante pour des investissements GPU supplémentaires.
Je pense que le Reinforcement Learning deviendra le nouveau champ de bataille des GPU.
Par exemple : o1, o3, GPT-5, Sonnet 3.7, 4, 4.5, etc.
Quand tout le monde pourra faire de l’inference avec des B200, les modèles pourront à nouveau grossir, mais pour l’instant, c’est surtout dans les budgets d’entraînement RL que la soif de GPU est la plus forte.
Certains disent quand même que l’objectif final est une concurrence infinie consistant à faire tourner toujours plus de GPU pour se rapprocher un peu plus de l’AGI.
J’estime qu’une architecture de Continuous Learning sera le prochain moteur de la demande en GPU.
L’inference finira probablement par être la moins chère lorsqu’elle sera mutualisée dans le cloud.
Je pense que la plupart des cas B2B basculeront vers des datacenters comme ceux d’AWS.
Dans des cas particuliers, comme le CERN ou Apple Siri, on utilisera du matériel dédié comme des FPGA ou des ASIC basse consommation, mais en dehors de cela, le « cloud-based » deviendra de plus en plus la norme.
Pendant la bulle dot-com, la publicité créait un effet circulaire.
Les VC injectaient de l’argent dans les startups, et celles-ci dépensaient cet argent en publicité chez Yahoo et ailleurs.
Le chiffre d’affaires de Yahoo explosait, son action montait, et cela devenait le signal qu’on pouvait gagner de l’argent sur Internet, ce qui alimentait le marché des IPO pour d’autres startups.
À mesure que l’argent circulait, la boucle publicité → revenus → capitalisation boursière → plus d’investissements VC → plus de publicité continuait de s’autoalimenter.
Dans la référence n°14, il est indiqué qu’OpenAI n’achèterait pas les GPU de Nvidia en paiement comptant mais les utiliserait en location,
et j’ai donc du mal à comprendre pourquoi Nvidia dit « avoir investi là-dedans ».
Si c’est de la location, Nvidia ne fait que percevoir des loyers ; pourquoi appeler cela un investissement ? Dans quoi Nvidia a-t-elle « investi » exactement ?
Nvidia doit d’abord avancer les fonds pour produire et fournir les GPU, et si cette allocation d’actifs ne peut pas être correctement soldée ensuite — par exemple si le client fait faillite — l’entreprise porte un risque.
En acceptant ce risque en échange d’une rémunération supplémentaire potentielle, la structure prend effectivement les caractéristiques d’un investissement.
Je ne suis pas expert-comptable, mais j’ai l’impression qu’à la fin du leasing, Nvidia se retrouvera seulement avec des actifs fortement amortis et de faible valeur.
Contrairement au leasing automobile, il n’existe sans doute pas un très grand marché secondaire pour les GPU.
Autrement dit, Nvidia fournit ses GPU « à tempérament » au lieu d’être payée intégralement d’avance.
Je me demande si le total des loyers couvre au moins le coût de revient.