3 points par GN⁺ 2025-09-23 | 1 commentaires | Partager sur WhatsApp
  • OpenAI a annoncé un projet visant à construire au moins 10 GW de centres de données IA basés sur des systèmes NVIDIA, afin de mettre en place l’infrastructure IA de nouvelle génération
  • Dans ce cadre, NVIDIA s’engage à investir progressivement jusqu’à 100 milliards de dollars à chaque déploiement à l’échelle du gigawatt
  • Le premier système de 1 GW devrait entrer en service sur la plateforme Vera Rubin au second semestre 2026
  • Cette coopération inclut une optimisation conjointe matériel-logiciel entre OpenAI et NVIDIA, et vient aussi compléter les collaborations existantes avec Microsoft, Oracle, SoftBank et les partenaires de Stargate
  • Elle devrait constituer une étape importante pour OpenAI dans sa progression vers l’AGI, portée par plus de 700 millions d’utilisateurs hebdomadaires et l’adoption par les entreprises à l’échelle mondiale

Aperçu du partenariat

  • OpenAI et NVIDIA ont annoncé une lettre d’intention (LOI) pour un partenariat stratégique visant à déployer au moins 10 GW de systèmes
    • Objectif : sécuriser l’infrastructure nécessaire à l’entraînement et à l’exécution des modèles de nouvelle génération d’OpenAI
    • Cette initiative est présentée comme une étape du cheminement progressif vers la superintelligence
  • NVIDIA a indiqué prévoir jusqu’à 100 milliards de dollars d’investissement au fil du déploiement, y compris pour l’extension des data centers et des capacités électriques
  • La première étape devrait être mise en ligne au second semestre 2026 sur la plateforme NVIDIA Vera Rubin

Déclarations clés

  • Jensen Huang (PDG de NVIDIA)
    • Il a rappelé les dix années de collaboration avec OpenAI et souligné le parcours ayant mené à la percée de ChatGPT
    • Il a déclaré que « le déploiement d’une infrastructure de 10 GW constitue un saut qui ouvrira la prochaine ère de l’intelligence »
  • Sam Altman (PDG d’OpenAI)
    • Il a insisté sur le fait que « tout commence par le compute », en soulignant qu’il s’agira du socle de l’économie future
    • Il a expliqué qu’avec NVIDIA, OpenAI veut porter de nouvelles percées en IA et des usages à grande échelle pour l’humanité et les entreprises
  • Greg Brockman (président d’OpenAI)
    • Il a indiqué qu’OpenAI construit, sur les plateformes NVIDIA, une IA utilisée par des centaines de millions de personnes
    • Il a déclaré qu’un déploiement de 10 GW devrait permettre d’élargir les limites de l’intelligence et de diffuser plus largement les bénéfices de la technologie

Portée de la coopération

  • NVIDIA est désigné comme partenaire stratégique d’OpenAI pour le compute et le networking
  • Les deux entreprises prévoient d’optimiser conjointement les modèles et logiciels d’infrastructure d’OpenAI avec le matériel et les logiciels de NVIDIA
  • Des synergies accrues sont également prévues avec le réseau de partenaires existant, dont Microsoft, Oracle, SoftBank et Stargate

Situation d’OpenAI et portée de l’annonce

  • OpenAI compte actuellement plus de 700 millions d’utilisateurs actifs hebdomadaires et connaît une adoption large parmi les grandes entreprises, les PME et les développeurs dans le monde
  • Ce partenariat est présenté comme une base pour accélérer la mission de construction d’une AGI au bénéfice de toute l’humanité
  • Les détails du partenariat devraient être finalisés dans les prochaines semaines

1 commentaires

 
GN⁺ 2025-09-23
Avis Hacker News
  • Il est très intéressant que cela soit exprimé en gigawatts. Ces trois dernières années, la croissance de l’IA a suscité une controverse sur la forte hausse des factures d’électricité des ménages et des petites entreprises à cause des data centers. Si 10 GW correspondent à ce que consomment Chicago et New York réunies, il faut sérieusement se demander d’où viendra cette électricité, vu l’état déplorable du réseau et des infrastructures électriques aux États-Unis. On a déjà fait peser le coût sur les ménages pour fournir une électricité bon marché aux data centers, donc cette inégalité pose aussi problème. Une hausse de 46 % du tarif résidentiel de l’électricité aux États-Unis, passé de 13 à 19 cents en cinq ans, n’est ni juste ni durable. La vraie question : d’où viendront ces 10 GW, et qui en paiera le prix ? À noter qu’on parle souvent de la taille des data centers en puissance électrique (watts), mais ici le chiffre vient non pas d’un propriétaire ou opérateur de data center, mais d’un fournisseur de compute comme Nvidia. Cela montre à quel point la consommation électrique, le renforcement du réseau et la répartition des coûts sont devenus les sujets centraux
    • Je travaille dans l’industrie des data centers. La taille d’un data center s’exprime de façon standard par sa consommation électrique (par ex. 200 MW). Les équipements de calcul peuvent être renouvelés tous les cinq ans, mais les besoins en électricité restent quasiment fixes. Cette unité montre bien qu’au fond, l’IA consiste à raffiner de l’énergie
    • Concernant l’affirmation « ni juste ni durable », l’électricité coûte moitié moins cher aux États-Unis qu’en Italie. Dans le pays le plus riche du monde, ça ne me semble pas insurmontable
    • L’infrastructure des data centers est toujours dimensionnée en watts. Tous les calculs, charge IT, refroidissement, etc., découlent de ce chiffre
    • Les utilities doivent toujours justifier leurs hausses tarifaires auprès des régulateurs. La principale cause de l’augmentation des coûts vient de la transition vers les renouvelables. Il n’est pas difficile d’imposer aux grands data centers de payer directement les coûts nécessaires. En revanche, produire l’électricité elle-même est un problème plus complexe. Autrefois, on pouvait capter à bas prix l’hydroélectricité du fleuve Columbia, mais cela commence désormais à entrer directement en concurrence avec les usages résidentiels. Cela dit, le coût de production ne représente qu’une très petite partie de la facture totale
    • Une hausse annuelle de 8 % est importante, mais il faut tenir compte du choc mondial sur les carburants en 2022. En Australie par exemple, les factures d’électricité ont doublé cette année-là. En moyenne, sur le long terme, on est plutôt autour de 6 % par an, soit légèrement au-dessus de la hausse des salaires à 4 %. L’électricité représente encore une petite part du revenu des ménages. La hausse des salaires absorbe l’essentiel de l’impact. Bien sûr, cela peut frapper durement les ménages modestes, mais pour la majorité, ce n’est pas un bouleversement majeur
  • Toutes les formules du communiqué de presse autour de ce « landmark strategic partnership » sont tellement vagues et pleines de langage corporate. En réalité, on dirait surtout une annonce du type « un jour, on fera peut-être quelque chose d’énorme »
    • L’action Nvidia a pris 6 $ aujourd’hui, donc l’annonce a bien produit son effet. En pratique, c’était une façon de dire aux investisseurs : « on va faire un truc énorme, donnez-nous encore du capital », et beaucoup semblent avoir répondu
  • Je me demande ce que signifie concrètement une échelle en gigawatts pour des systèmes Nvidia. J’ai fait quelques estimations, avec l’aide de GPT, et on arrive peut-être à près de dix millions d’unités. Ça paraît vraiment gigantesque
    • À ce niveau, c’est clairement énorme au point d’en être absurde. Au niveau système, un H100 consomme environ 1 à 2 kW, donc à 2 kW on obtient environ 5 millions d’unités. Par exemple, un rack NVL72, c’est 120 kW pour 72 puces, soit environ 2 kW par puce avec le refroidissement inclus
    • Dire « plusieurs millions d’unités » ne serait pas exagéré. Le nombre réel dépend de l’infrastructure, et en pratique les accélérateurs ne représentent qu’une partie de la consommation totale, mais l’ordre de grandeur reste bien celui de plusieurs millions
    • J’ai fait un calcul rapide avant de lire les commentaires : avec 600 W par GPU, 10 000 000 000/600 = 16,66 millions d’unités. Ce sera sans doute assez éloigné de la réalité une fois tous les facteurs pris en compte, mais c’est un bon point de départ. Cela n’inclut pas l’overhead, la chaleur, le rendement de conversion, etc.
    • En comptant 3 MW pour 1 000 GPU, 10 GW représenteraient environ 3,33 millions d’unités
    • Je me demande aussi quel type de câbles et quelles longueurs il faudrait pour relier tous ces GPU. Je pensais que c’était juste des racks métalliques empilés, puis j’ai vu des photos de vrais data centers avec d’innombrables câbles bleus partout
  • J’ai déjà l’impression que la technologie des LLM (grands modèles de langage) a dépassé son pic. Maintenant, on a surtout l’impression d’une pub pour un radiateur soufflant : on prétend qu’il y a des avancées extraordinaires alors qu’en réalité la technologie stagne. On fabrique juste des chevaux plus rapides. Le marché aurait dû réguler cela de façon plus rationnelle
    • Il est tout à fait possible que la bulle IA finisse par éclater de manière spectaculaire. Mais dire qu’on est déjà au sommet des LLM, c’est comme dire qu’Internet était déjà à son apogée entre 1999 et 2001. En réalité, il y a ensuite eu d’autres innovations comme les smartphones, et les LLM textuels eux-mêmes n’ont pas encore stagné. L’IA ne se limite pas au texte : l’IA du monde réel, comme la voiture autonome, progresse aussi de façon exponentielle
    • À l’époque de la bulle internet, il y a eu une surchauffe massive suivie d’un gros crash, et les entreprises qui ont survécu, comme Amazon, sont devenues des géants. J’espère que ce boom de l’IA laissera lui aussi quelque chose de réellement utile
    • Je pense qu’une correction de marché arrivera bientôt. Mais comme Internet est resté précieux après l’éclatement de la bulle dot-com, j’espère qu’il restera une valeur durable sur le long terme
    • Le point de vue est plutôt que toutes les attentes positives sont désormais déjà intégrées dans les prix, donc que l’on est « allé trop loin »
  • L’eau est une ressource essentielle et rare dans de nombreuses régions. Il y a déjà eu plusieurs cas de data centers pompant l’eau en période de sécheresse. Je me demande si l’EPA américaine a encore son mot à dire sur la gestion de l’usage de l’eau dans ce type de projet
    • Les nappes phréatiques du Midwest sont davantage utilisées pour produire de l’éthanol, et en Californie pour la culture des amandes. L’impact de ces deux activités sur les ressources en eau est bien plus important, alors que leur utilité réelle est moindre que celle des data centers. J’aimerais qu’on se concentre davantage sur les vrais gros sujets
    • La question de l’eau dans les data centers n’est pas aussi importante que ce que racontent les médias. Il existe des problèmes locaux dans certaines régions, mais l’électricité est un enjeu bien plus central
    • Je me demande si la consommation d’eau des data centers n’est pas en réalité surtout liée à des systèmes de refroidissement en circuit fermé, donc davantage à de l’eau mise en circulation par pompage qu’à une consommation nette importante
  • Presque personne ne parle vraiment de la demande électrique de ces installations géantes. Dans le New Jersey, ma facture d’électricité a aussi bondi de plus de 50 % chez PSEG. On dit que la demande explose à cause des data centers, mais dans les faits on ne leur applique pas de tarification plus élevée article lié
    • Ce type de hausse montre surtout la réalité politique anti-consommateur du New Jersey. Les data centers finiront de toute façon par se regrouper là où les tarifs d’électricité restent compétitifs
    • C’est l’État qui a laissé faire. Il aurait très bien pu refuser, mais il l’a autorisé
  • Google consomme 15 TWh par an (environ 1,7 GW), et le nouveau plan OpenAI + Nvidia devrait en consommer 5,8 fois plus, soit 5,8 Google. À cette échelle, il y aura des opportunités énormes pour des puces de calcul IA ultra-basse consommation par rapport aux GPU actuels. Il existe déjà plusieurs pistes techniques, donc c’est prometteur
    • Je serais curieux d’avoir des exemples concrets de puces IA ultra-basse consommation. Ce serait bien d’avoir des chiffres sur les gains énergétiques réels
    • Même ce seul data center pourrait concentrer assez de puissance de calcul pour lancer une attaque à 51 % contre les principales cryptomonnaies. Si le marché de l’IA se dégonfle après la bulle, cela pourrait même devenir une forme d’assurance intéressante
  • J’attends simplement, en silence, l’article d’analyse d’Ed Zitron sur le sujet
    • Quand les dirigeants ne peuvent pas mesurer la performance par les résultats, ils finissent par la mesurer uniquement par les intrants, ce qui dégrade l’efficacité. C’est la même logique derrière le retour forcé au bureau. Désormais, pour OpenAI et Nvidia, la vraie mesure du succès semble être les gigawatts injectés, plus que les résultats réels de l’IA
    • Post d’Ed Zitron lui-même
    • Beaucoup de gens ont déjà perdu gros en suivant l’une des prédictions pessimistes d’Ed Zitron
  • On part de l’hypothèse qu’il faudrait un terrain de la taille de Monaco (740 acres) pour ce data center, sur une base de 80 kW par rack
    • Monaco est minuscule, ça tiendrait à peu près dans le parc de Tempelhof, au centre de Berlin
    • En pratique, on peut aussi dire que c’est de l’ordre de grandeur d’une seule usine BYD
    • Monaco fait 2 kilomètres carrés. Si on suppose 1 mètre carré par rack, la surface réellement nécessaire serait de 12 hectares, soit environ 17 terrains de football, en installation sur un seul niveau. On pourrait donc imaginer empiler les data centers à la verticale. Je me demande si je suis le seul à avoir vérifié la taille de Monaco Wiki Monaco calcul direct de surface
    • On pourrait faire tenir 4,8 millions de Monaco sur l’ensemble du territoire des États-Unis
  • Dans les années 1960, le réacteur d’un sous-marin de l’US Navy faisait 78 MW, donc 10 GW correspondraient à 128 sous-marins nucléaires
    • Plus simplement, cela représente environ 2 % de la consommation électrique moyenne totale des États-Unis, soit à peu près l’échelle des Pays-Bas entiers avec leurs 18 millions d’habitants
    • Une centrale nucléaire fournit généralement jusqu’à 2 GW au maximum, et même les parcs éoliens offshore plafonnent autour de 1,5 GW. Même un système géant de transport HVDC en 525 kV ne peut transmettre qu’environ 2 GW par câble. Rien qu’avec 10 GW de charge supplémentaire, le réseau subirait un choc énorme et nécessiterait des investissements massifs. Même en demandant aujourd’hui des câbles 525 kV à un grand industriel, il faudrait attendre après 2030
    • Si l’on considère qu’un cerveau humain consomme environ 20 W, alors 10 GW équivalent à 500 millions de cerveaux. Comparé à des insectes comme la mouche, qui traitent aussi de l’information avec une énergie infime, on peut se demander si les IA actuelles comme les LLM ne suivent pas une voie complètement inefficace. Si une approche bien plus efficace apparaît un jour et renverse tout cela, les installations actuelles pourraient perdre toute valeur, lol
    • Dix réacteurs РБМК très sûrs de 1 GW donnent bien 10 GW (sans risque d’explosion)
    • Une centrale produit autour de 1 GW, et comme le nucléaire est lent à construire, l’option la plus probable reste le gaz naturel