5 points par GN⁺ 2025-10-19 | 1 commentaires | Partager sur WhatsApp
  • OpenAI fait face à une situation où elle doit lever plus de 400 milliards de dollars au cours des 12 prochains mois
  • Ce montant est destiné à couvrir des plans d'expansion massifs, notamment la construction de centres de données à grande échelle, les contrats de puces IA, la masse salariale et les coûts commerciaux
  • La construction d'un seul centre de données est estimée entre 5 et 60 milliards de dollars ; OpenAI vise 33 GW d'ici 2029 et 250 GW d'ici 2033
  • Cette vitesse et cette ampleur d'expansion frôlent l'impossible à réaliser car elles dépassent les limites globales de la finance et des infrastructures
  • Si le plan actuel était suivi, OpenAI exercerait une pression considérable sur les marchés mondiaux du capital, tout en créant un risque majeur pour les investisseurs et l'ensemble de l'industrie

Vue d'ensemble

  • Pour déployer ses plans ambitieux de construction de grands centres de données, de contrats de puces et de coûts de maintenance à l'avenir, OpenAI doit lever des fonds à une vitesse sans précédent
    • Rien qu'au cours de l'année prochaine, au minimum 400 milliards de dollars seraient nécessaires, ce qui représente une charge importante non seulement pour OpenAI mais aussi pour l'ensemble du système financier mondial
  • Le fait de présenter les récents engagements de collaboration de puces personnalisées de 10 GW et de déploiements de plusieurs GW comme « raisonnables et réalisables » est contestable
    • Il faudrait relever le coût unitaire de construction à 50 milliards de dollars par GW et intégrer le coût total en incluant bâtiments, infrastructures électriques et réseau
    • En tenant compte d'un délai minimum de 2,5 ans et d'une capacité électrique de secours, cela paraît presque irréalisable sur le calendrier
  • La raison pour laquelle l'estimation antérieure de (325 milliards $/GW) a été portée à 50 milliards de dollars/GW tient, selon l'analyse, à la nécessité de corriger une sous-estimation des coûts des puces, du réseau, des infrastructures auxiliaires et des contributions de tiers
    • Parmi les facteurs de hausse figurent notamment les hypothèses sur le prix et le volume de GB200/Blackwell, l'approvisionnement Lancium et une échelle de 8 bâtiments/50 000 GPU

Vérification du calendrier du second semestre 2026

  • Broadcom : objectif de tape-out, production en masse et déploiement de 1 GW pour des puces d'inférence au second semestre 2026
    • Site non encore défini et sans démarrage de chantier, avec un besoin de 1,2 à 1,3 GW d'électricité totale par GW IT, ce qui rend des conflits de calendrier très probables
  • AMD : objectif de premier déploiement de 1 GW MI450 au second semestre 2026
    • Pour atteindre ce jalon à cette date, des achats de l'année précédente, des contrats d'électricité et un démarrage de chantier doivent déjà être lancés
  • NVIDIA : objectif de déploiement Vera Rubin 1 GW au second semestre 2026
    • De même, site, électricité et chantier doivent déjà être en cours pour être respecté
  • Même en adoptant une approche prudente, plus de 100 milliards de dollars sont nécessaires, et un financement préalable ou un consortium de grande ampleur est inévitable

Remise en question des affirmations sur la demande, le trafic et la capacité

  • La possibilité d'un double comptage du chiffre de 800 millions de MAU hebdomadaires et les objectifs 250 GW / 10 billions de dollars d'ici 2033 sont jugés irréalistes
    • En tenant compte de l'estimation de 55 GW de charge IT DC mondiale en 2024, une augmentation de capacité de 5 fois sur 8 ans pour une seule entreprise n'a pas de précédent
  • Sur la force produit, compte tenu du faible rendement et des limitations des récents GPT-4.5, GPT-5 et Sora 2, la valeur des livrables par rapport aux gaspillages massifs de R&D est remise en cause
    • En se basant sur une analyse externe, sur les dépenses de R&D de l'ordre de 11 à 12 milliards de dollars en 2024-2025, les coûts d'entraînement des modèles effectivement utilisés sont restés limités

Postes de financement nécessaires dans les 12 mois (estimation de l'auteur)

  • 1 GW pour Broadcom : environ 50 milliards de dollars
  • 1 GW + achat de puces pour NVIDIA : environ 50 milliards de dollars
  • Coût de compute 2026 (via Oracle·CoreWeave·Azure·GCP) : environ 40 milliards de dollars
  • 1 GW + achat de puces pour AMD : environ 50 milliards de dollars
  • Développement de dispositifs grand public : environ 0,5 milliard de dollars
  • Coopération en conception de CPU basé sur ARM : environ 1 milliard de dollars
  • Ajustement OPEX divers, ventes, marketing, salaires : environ 10 milliards de dollars
    • Total 391,5 milliards de dollars ≈ 4000 milliards de dollars, besoin de liquidités importantes avant février 2026

Contraintes financières et risques structurels

  • Sur la base de l'estimation des dépenses de R&D de 67 milliards de dollars et de S&M de 20 milliards de dollars au premier semestre 2025, la sortie de trésorerie se poursuit
    • Le structure de marge inverse avec l'estimation de 92 milliards de dollars consommés en compute et 43 milliards de dollars de revenus au premier semestre 2026
  • Les risques de gouvernance et contractuels liés au délai de transition non lucratif → lucratif et aux 200 milliards de dollars conditionnels de SoftBank
    • La condition de conversion de dette d'octobre 2026 dans le cadre du tour de 66 milliards de dollars de 2024 est également lourde

Réalisme des accords d'infrastructure Oracle, CoreWeave, etc.

  • Il est estimé qu'il faut 4,5 GW IT pour exécuter le contrat Oracle de 5 ans à 3000 milliards de dollars
    • Stargate Abilene ne dispose actuellement que de 200 MW d'électricité ; en tenant compte de la puissance de réserve, cela se situe à 130 MW IT
    • Le site Shackelford 1,4 GW se trouve au début du démarrage du chantier ; avec un objectif de premier bâtiment H2 2026, la mise en service complète doit être corrigée à après 2027
  • Compte tenu de l'estimation de CoreWeave fin 2025 autour de 900 MW maximum, l'écart avec « 2 GW en exploitation en 2025 » est important

Limites du marché des capitaux, de la chaîne d'approvisionnement et du réseau électrique

  • Les besoins financiers dépassent le VC mondial de 3680 milliards de dollars en 2024 ; comparé aux deals de private equity et au commerce mondial, la limite d'absorption reste nette
  • Il existe des bouchons simultanés au niveau des transformateurs, acier électrique, infrastructures HV, refroidissement, marge de réserve du réseau électrique, main-d'œuvre qualifiée, etc., avec des conflits de calendrier inévitables
  • L'ensemble de ces annonces a une forte tonalité de narratif de pilotage du cours et des deals, et la possibilité d'exécution est jugée faible

Conclusion

  • En raison des contraintes réelles de temps, de financement, de ressources, de réglementation et d'électricité, la réalisation des échéances annoncées jusqu'en 2026 est extrêmement difficile
  • Sur les 12 prochains mois, la levée de 400 milliards de dollars atteint une limite élevée même du point de vue de la capacité d'absorption des marchés de capitaux mondiaux, et le risque de confiance peut s'accroître en cas de non-respect
  • Le point central est un décalage entre les engagements de capacité gonflés et la demande, la force produit et les flux de trésorerie ; sans réalignement des plans, remise à plat de la gouvernance et refonte de la structure de financement, la soutenabilité ne pourra pas être maintenue

1 commentaires

 
GN⁺ 2025-10-19
Avis Hacker News
  • Même si l’on juge impressionnant le taux de croissance d’OpenAI, le fait d’avoir gagné 100 millions d’utilisateurs en deux mois ne signifie pas que toute l’humanité utilisera en permanence ce service. À l’inverse, on peut aussi soutenir qu’un rythme d’adoption aussi rapide laisse entrevoir un potentiel d’usage universel et continu. Il faut toutefois se méfier d’une extrapolation infiniment exponentielle, car la courbe de croissance peut suivre une forme en S

    • Le fait d’avoir ajouté 100 millions d’utilisateurs en deux mois ne prouve pas que tout le monde en aura besoin en permanence. Popularité et utilité sont deux choses différentes. Des données sur l’impact de la hausse d’usage des LLM sur des indicateurs comme la productivité seraient plus convaincantes. Certaines études montrent même une baisse de productivité chez des professionnels. Voir l’étude

    • Personnellement, je n’ai commencé que récemment à utiliser ChatGPT de façon occasionnelle, surtout comme substitut à la recherche. La recherche traditionnelle est devenue tellement mauvaise ces temps-ci qu’on a l’impression de voir un boxeur en état moyen affronter un champion de 70 ans. Si un jour ça tourne sur mon laptop, cela pourrait devenir un outil vraiment utile

    • Le goulot d’étranglement d’OpenAI s’est d’abord déplacé des GPU vers l’énergie. Le prochain goulot, ce sont les « humains biologiques ». Certains plaisantent en disant qu’OpenAI finira aussi par trouver un moyen de créer davantage d’humains pour maintenir sa croissance

    • À long terme, si une IA simplement correcte est intégrée dans un large éventail de produits comme les navigateurs, les OS, les smartphones ou les traitements de texte, le marché de l’IA autonome grand public pourrait se réduire fortement. Il y aura toujours une demande pour les outils spécialisés, la recherche de pointe ou les outils de code, mais j’ai du mal à croire que cela suffise à bâtir une entreprise valant des milliers de milliards

    • En réalité, seules environ 5 % des personnes paient 20 $ pour s’abonner. Comme la VR ou l’AR, on l’utilise parfois si c’est gratuit, mais pas assez pour vouloir payer soi-même. Je pense que les LLM sont déjà devenus une commodité

  • L’article était intéressant, mais la plus grande menace pour OpenAI ou Anthropic reste en pratique les modèles open source. Des modèles comme deepseek ou llama 3 rattrapent rapidement leur retard, donc si l’on peut obtenir presque les mêmes capacités pour bien moins cher, ou gratuitement sur son propre GPU, on peut se demander quelle valeur distinctive OpenAI met encore en avant. Personnellement, j’ai un abonnement payant à OpenAI, mais surtout pour la commodité, et je l’utilise plutôt correctement pour la vérification mathématique, entre autres. Vu le prix, je doute tout de même que cela puisse devenir un service réellement indispensable pour les entreprises. Bien sûr, OpenAI réunit les meilleurs talents et reçoit des investissements, donc je peux me tromper

    • On dit que l’open source comme deepseek et llama 3 rattrape rapidement son retard, mais l’entraînement de grands modèles coûte énormément d’argent, et ce qui est publié en open source aujourd’hui repose en réalité sur des entreprises commerciales qui acceptent de perdre de l’argent au profit de l’écosystème open source. Si ces entreprises décident ensuite de « retirer l’échelle » pour poursuivre le profit, je me demande quelle parade il resterait

    • Le point que l’auteur cherche à faire valoir, c’est qu’il faut regarder les chiffres de manière réaliste. Rien que trouver les personnes capables de construire et d’exploiter des data centers prend déjà énormément de temps. L’idée est donc que le calendrier présenté dans l’article est irréaliste

    • On injecte beaucoup d’argent à court terme, mais on peut se demander d’où vient réellement la demande, et dans quelle mesure un modèle en libre-service du type « faire tourner llama directement sur mon GPU » contribue vraiment au chiffre d’affaires. Il y a quelque chose qui ne colle pas

    • Pour faire tourner rapidement deepseek, kimi ou glm sur mon propre GPU, il faut au minimum plus de 50 000 $ rien qu’en matériel. Et pour approcher les performances d’OpenAI ou d’Anthropic, il faut plusieurs centaines de Go de VRAM rapide

    • Si les gens utilisent OpenAI, c’est en grande partie parce qu’ils ne sont pas à l’aise avec l’IT. Dans le monde réel, presque personne n’utilise de bloqueur de publicité. OpenAI s’est installé dans l’esprit du grand public. S’ils avaient poussé de la pub à la manière de Google, ils auraient pu consolider une position encore plus forte, mais choisir l’économie de bulle et l’arnaque à l’investissement était une erreur de calcul

  • Tout le monde devrait se calmer. Altman s’occupe de tout. Dans 47 jours sortira ChatGPT 6 Recurd, qui va stupéfier tout le monde : au lieu d’un meilleur modèle, on recyclera l’ancien, mais ça tournera beaucoup mieux parce qu’on ajoutera automatiquement l’achat de 10 forfaits ChatGPT 6. Ensuite, les mises à niveau s’accéléreront encore, avec des gains répétés de 1 % de performance. Il est facile de sous-estimer cette croissance hyper-exponentielle. Début 2026, ils vendront des milliers de milliards de licences sans aucune limite de clients humains. Altman a déjà prévu une monnaie dédiée, un système de prêt automatique et même des marchés à terme sur le compute. Un monde entièrement nouveau. Un nouveau monde appelé « Alt/World! »

  • Je me demande pourquoi on mesure les data centers en « gigawatts ». Pourquoi ne pas les mesurer en performance de calcul réelle, en flops par exemple ? D’ailleurs, j’ai l’impression qu’on pourrait aussi fabriquer un data center « 1 GW » avec un seul CPU 6502 et un tas de résistances

    • Parce que la capacité électrique et le refroidissement sont les principales contraintes dans la construction d’un data center. La performance de calcul change énormément avec le temps et, en pratique, 1 GW avec des puces récentes comme les GB200 représente environ 5 exaflops de calcul, selon la précision et d’autres paramètres

    • En acquérant récemment un peu d’expérience dans l’exploitation de petits équipements HW et de data centers, j’ai constaté que les switchs, firewalls, systèmes de stockage, etc., consomment eux aussi énormément d’électricité et de refroidissement, presque autant que les GPU. Au-delà d’une certaine échelle, la contrainte centrale n’est plus la performance de calcul maximale, les Hz ou les Go, mais bien la quantité d’électricité qu’on peut injecter et la chaleur qu’on peut évacuer. Par exemple, il existe des projets portuaires qui dissipent des surplus d’énergie solaire à l’aide de résistances géantes. Le vrai problème, c’est de se raccorder en sécurité à un réseau haute tension et d’évacuer la chaleur rapidement

    • Les unités de performance de calcul varient selon le matériel et les workloads, si bien qu’une mesure universelle est en pratique impossible. La capacité électrique est donc une approximation de la capacité de calcul maximale possible à un instant donné. Cela couvre aussi des variables comme les régions ou les méthodes de refroidissement

    • À la louche, 1 GW permettrait de faire tourner environ 1,43 milliard de puces 6502

    • Si l’unité réelle est la « puissance », c’est parce qu’elle est l’unité finale de tous les coûts : efficacité du compute, investissement matériel, extensibilité, etc.

  • Je voudrais insister sur le fait que, plus que le capital initial nécessaire à la construction des data centers, le vrai goulot d’étranglement de l’industrie, ce sont les fournisseurs d’électricité. Le réseau nord-américain manque déjà fortement de capacité. Il faudrait une enquête approfondie sur la quantité réelle d’électricité disponible pour de grands data centers et sur le calendrier d’éventuelles extensions. Construire des centrales est une activité extrêmement lente. La plupart de ces plans d’investissement dans les data centers semblent supposer soit que la capacité électrique apparaîtra « comme par magie », soit qu’il n’existe aucune concurrence pour y accéder

    • Je ne comprends même pas pourquoi cet aspect n’est pas davantage discuté
  • Il y a un problème avec l’affirmation selon laquelle « OpenAI va dépenser 400 milliards de dollars au cours de l’année à venir ». En réalité, OpenAI n’investit pas directement cette somme : des acteurs comme Oracle construisent les data centers et OpenAI paie un loyer. Comme il s’agit de contrats de location, ils n’avancent pas l’intégralité du coût de construction. Par exemple, OpenAI commencerait à payer des loyers annuels de l’ordre de 30 milliards de dollars à partir de 2027/2028, avec une montée progressive sur cinq ans. NVIDIA et AMD récupèrent aussi leur mise selon les jalons atteints ou les déploiements de puces, et au fond ce sont plutôt les fournisseurs qui parient sur la croissance d’OpenAI en lui accordant du crédit. Le montage est très particulier et peut être instable, mais dire qu’il faut « disposer immédiatement de 400 milliards de dollars en cash » est un raisonnement erroné. Le vrai enjeu est de savoir si le chiffre d’affaires d’OpenAI peut croître jusqu’à au moins 60 à 70 milliards de dollars d’ici 2028-2029. L’argument ne tient donc pas ; les vrais risques sont plutôt le calendrier d’exécution et la progression du chiffre d’affaires. Liens de référence : CNBC - data center d’OpenAI, w.media - contrat de location Oracle, CNBC - partenariat Nvidia, TechCrunch - fourniture de puces AMD

    • Ed Zitron, en tant qu’analyste, accumule les affirmations erronées et les erreurs factuelles. Il a aussi publié un billet en insistant à tort sur le fait que le « coût de l’inférence » augmenterait. Article lié

    • Les WAU d’OpenAI (utilisateurs actifs hebdomadaires) progressent à un rythme annualisé d’environ 122,8 %, mais c’est en baisse par rapport aux 461,8 % observés il y a dix mois. Si la croissance se stabilise, l’entreprise pourrait atteindre d’ici fin 2028 un chiffre d’affaires annuel maximal d’environ 104 milliards de dollars et 6,4 milliards de WAU. Ces chiffres n’ont rien de certain, mais Oracle et Nvidia doivent en quelque sorte maintenir leur propre valorisation boursière sur cette hypothèse. En réalité, comme le ralentissement de la croissance semble être d’environ 20 % tous les deux mois, il serait difficile d’espérer plus que 1,2 milliard de WAU à la même époque l’an prochain, puis 1,4 milliard l’année suivante. Cela reste inférieur aux niveaux de Google ou Facebook

    • Dans la mesure où OpenAI tient grâce à ce modèle locatif, le risque réel se déplace progressivement vers les investisseurs les plus subordonnés, voire vers le public ou les cotisants aux retraites. Voir Turtles all the way down

  • En voyant Sora 2 et la polémique sur l’animation, j’ai vérifié qu’une saison moyenne d’animation télévisée ou un film peut être produit pour 10 à 20 millions de dollars. Je ne sais pas combien a réellement coûté le développement de Sora 2, mais si on parle de centaines de milliards ou de milliers de milliards, on pourrait produire des milliers d’animations de ce type. Ce n’est pas tout à fait le même sujet que les LLM, mais au final, même si l’IA remplaçait du personnel spécialisé, je doute que le gain par rapport à l’investissement soit vraiment rationnel

    • En réalité, je pense que le coût de développement de Sora 2 est bien inférieur à plusieurs milliards

    • Je doute qu’on puisse vraiment produire une « émission » avec Sora 2. On entend toujours parler de vidéos courtes ; pour une vraie série, il semble encore manquer un saut technologique

    • Avec des outils comme Sora ou Google Flow, même des amateurs pourront probablement produire à faible coût des contenus d’une qualité professionnelle. Produire des milliers d’animations n’est pas un scénario impossible

    • À mon avis, de tels investissements gigantesques ne sont justifiés que s’ils sont compensés par quelque chose qui va au-delà du simple ROI d’un chatbot

  • Je me demande à quelle vitesse une telle masse d’argent peut réellement être injectée dans les centrales électriques, les data centers, la conception et la production de silicium, et si l’industrie des infrastructures connaîtra elle aussi une correction brutale après une bulle, ou si nous allons vraiment assister à une transformation d’ampleur révolution industrielle. Il y a aussi une proposition de cofondation d’une startup d’infrastructure pour systèmes embarqués hautement sécurisés

    • En dehors du recyclage de l’or, je pense qu’il n’existe pas de véritable « durabilité » dans l’industrie tech
  • Certains demandent pourquoi Anthropic n’aurait pas des besoins en capital comparables

    • Anthropic est plus prudent dans sa communication sur les coûts. Ed Zitron suit actuellement de près ses dépenses sur GCP

    • Comme la discussion porte sur la construction d’une « AGI », c’est distinct des services actuels d’Anthropic. De plus, rien ne garantit que l’intelligence augmente indéfiniment avec la quantité de calcul

    • En réalité, Anthropic aura probablement besoin d’investissements comparables. L’auteur semble simplement se concentrer sur OpenAI

    • Si sa croissance se poursuit, Anthropic aura elle aussi besoin d’investissements à grande échelle

    • Il semble qu’Anthropic utilise plus agressivement les TPU en cas d’overflow. La récente baisse de performance de Claude aurait été liée à des bugs propres aux TPU et à l’implémentation, ce qui permettait de déduire dans une certaine mesure leur mode d’exploitation mixte Nvidia/TPU. Il ne semble pas encore y avoir d’indication qu’OpenAI ait déployé des pondérations sur l’infrastructure de Google

  • Je voudrais aussi savoir comment le modèle de capex des data centers pourrait évoluer si l’objectif devenait un taux d’utilisation de 100 % et que l’efficacité du capex importait davantage que le node uptime. Selon l’évolution des marges de NVidia et d’autres, il pourrait y avoir une marge de baisse des coûts de l’ordre de un à deux chiffres. Si OpenAI construisait des data centers moins fiables que les standards habituels, sur des sites bon marché, cela me semblerait un peu plus réaliste. Cela dit, OpenAI devrait probablement dépenser plus de 40 milliards de dollars dans les data centers d’ici l’an prochain. Les data centers traditionnels sont très sensibles à la disponibilité, mais à cette échelle, je pense qu’OpenAI se souciera relativement peu de l’uptime des racks ou de l’installation dans son ensemble

    • Ceux qui ont réellement fait les calculs continuent malgré tout à vouloir une fiabilité de niveau Tier IV. Je n’ai jamais vu de data center de minage crypto de niveau « Tier 0 » (fiabilité minimale, au plus bas coût) réellement converti pour un usage IA