9 points par GN⁺ 2025-10-08 | 1 commentaires | Partager sur WhatsApp
  • Les investissements liés à l’IA ont explosé grâce à des taux artificiellement bas, formant la plus grande bulle de l’histoire
  • Le cabinet de recherche indépendant MacroStrategy Partnership affirme que la bulle de l’IA représente 17 fois la bulle internet et 4 fois la crise des subprimes
  • En s’appuyant sur la théorie de Knut Wicksell, le rapport explique que des taux bas allouent le capital de façon inefficace, ce qui entraîne un mauvais usage d’une partie du PIB
  • Il souligne aussi les limites des gains de performance des LLM et l’absence de rentabilité, en prenant pour exemple des coûts de modèles multipliés par 10 pour des améliorations quasi nulles
  • L’analyste recommande de réduire l’exposition aux entreprises de l’IA et des plateformes, d’augmenter les investissements dans les ressources et les marchés émergents (Inde, Vietnam), ainsi qu’une stratégie d’achat d’or, de bons du Trésor américain à court terme et de yen

Taille de la bulle de l’IA et ses fondements

  • Le récent environnement de taux bas artificiellement maintenus a alimenté le boom des investissements dans l’IA
  • MacroStrategy Partnership estime que les investissements actuels dans l’IA constituent la plus grande bulle historique
    • Calculée comme un « déficit wicksellien » (Wicksellian deficit), elle représenterait 17 fois la bulle internet et 4 fois la crise immobilière de 2008
    • Cela inclut non seulement l’IA, mais aussi l’immobilier, les NFT, le capital-risque et d’autres zones de mauvaise allocation du capital liées aux taux bas
  • Selon la théorie de Knut Wicksell, une allocation idéale du capital se produit lorsque le coût d’emprunt des entreprises est supérieur de 2 points au PIB nominal
    • L’assouplissement quantitatif de la Fed aurait rompu cette condition pendant une longue période, provoquant un surinvestissement

Limites technologiques et critiques des LLM

  • Le rapport souligne les limites de passage à l’échelle des grands modèles de langage (LLM)
    • Il cite une étude selon laquelle le taux d’achèvement des tâches dans une entreprise logicielle n’était que de 1,5 % à 34 %, et encore de manière incohérente
    • Le taux d’adoption de l’IA dans les grandes entreprises serait entré en phase de recul, et de nombreux exemples d’usage réel présentent des erreurs logiques
  • L’analyse estime que les coûts d’entraînement des modèles ont flambé alors que les gains d’efficacité restent minimes
    • Le coût d’entraînement de ChatGPT-3 aurait été de 50 millions de dollars, celui de GPT-4 de 500 millions de dollars, et celui de GPT-5 de 5 milliards de dollars
    • GPT-5 est décrit comme n’ayant presque pas progressé en performances malgré son lancement retardé
  • Les concurrents pouvant facilement rattraper leur retard, il n’existerait en pratique aucune barrière à l’entrée (moat)

Problèmes de rentabilité du modèle économique des LLM

  • Il y a aussi le problème suivant : il est difficile de créer avec les LLM des applications ayant une vraie valeur commerciale
  • Les productions générées sont souvent recyclées dans les jeux, le domaine public (par ex. les devoirs), ou se heurtent à des restrictions de droits d’auteur
  • Il est difficile de mettre en place une publicité efficace, et à mesure que les générations se succèdent, les coûts d’entraînement explosent tandis que les gains de précision chutent fortement
  • Au final, les problèmes de compétitivité tarifaire, de rentabilité et de différenciation entre modèles persistent
  • Même les segments de clientèle à forte utilisation représentent, pour les éditeurs, un coût supérieur au prix de l’abonnement mensuel

Perspectives économiques et impact des politiques

  • Le rapport avertit qu’une fois le pic des investissements dans les data centers et de l’effet richesse (wealth effect) passé, puis en cas de repli,
    • l’économie pourrait très probablement entrer dans une récession similaire à celle qui a suivi la bulle internet
  • Cela pourrait faire basculer l’économie américaine dans un krach déflationniste de zone 4 (Zone 4 deflationary bust),
    • dans un contexte où la Fed et l’administration Trump auraient des difficultés à déployer des mesures de soutien
    • comme après la crise des S&L au début des années 1990, un effort durable de reflation serait nécessaire

Proposition de stratégie d’investissement de MacroStrategy Partnership

  • Surpondérer (Overweight) : les matières premières, et en particulier les marchés émergents comme l’Inde et le Vietnam
  • Sous-pondérer (Underweight) : les entreprises de l’IA et les plateformes
  • Recommandations de portefeuille :
    • achat d’actions liées à l’or (Gold) (GDX)
    • achat de bons du Trésor américain à court terme
    • position longue sur le VIX (indice de volatilité)
    • achat de yen, avec une appréciation attendue surtout face aux devises autres que le dollar

Résumé du marché et autres actualités

  • Le S&P 500 a inscrit en 2025 son 30e record historique, tandis que le prix de l’or s’est envolé
  • Apple a reçu une note « underperform » de Jefferies dans un contexte d’emballement autour des attentes sur l’iPhone pliable
  • Applied Materials prévoit que les restrictions américaines à l’exportation réduiront son chiffre d’affaires de 710 millions de dollars sur les cinq prochains trimestres
  • BlackRock est en discussion pour l’acquisition d’Aligned Data Centers pour un montant de 40 milliards de dollars
  • Les profits réels des entreprises américaines (base NIPA) ont reculé pendant deux trimestres consécutifs,
    • et une analyse de Ned Davis Research suggère que les estimations de bénéfices du S&P 500 pourraient être excessivement optimistes

1 commentaires

 
GN⁺ 2025-10-08
Réactions sur Hacker News
  • J’ai l’impression que tout cet article est creux. En le lisant jusqu’au bout, il n’explique presque pas ce que signifie le « 17 fois » mentionné dans le titre, et on ne comprend pas vraiment ce qui serait 17 fois plus grand

    • Il n’y a même pas de lien vers la note de recherche originale, ni de détails sur la méthodologie utilisée. L’article se contente d’évoquer l’absence de modèle économique autour de l’IA, ce qui ressemble à ce qu’on disait des moteurs de recherche à la fin des années 1990. Il est difficile de croire que l’ensemble du marché soit exposé à l’IA comme le marché du crédit l’était. Même si OpenAI faisait faillite, il ne semble pas probable que toutes les autres entreprises s’effondrent avec elle

    • En faisant une recherche Google rapide, on voit que les institutions financières mondiales ont subi entre 1 000 et 2 000 milliards de dollars de pertes sur les titres liés aux prêts hypothécaires, que le marché immobilier américain représentait 6 000 milliards de dollars, et que le marché actions a lui aussi perdu 6 000 milliards supplémentaires. Je ne fais pas totalement confiance aux chiffres, mais l’ordre de grandeur est celui-là. J’ai du mal à croire que la bulle IA soit aussi grosse que la bulle des subprimes. Cela dit, comme les taux sont restés bas pendant longtemps, de nombreux actifs ont été surévalués, et si la bulle éclate, cela pourrait entraîner un ajustement massif et une récession

    • La source du « 17 fois » est un rapport rédigé par quelqu’un nommé Julien Garran. Ce qu’il a écrit est repris dans des articles racoleurs. On peut voir directement le contenu de la recherche dans cette vidéo. Le « 17 fois » est fondé sur un modèle macroéconomique appelé « cumulative Wicksell spread », qui soutient que le marché actions pourrait être surévalué à cause des taux d’intérêt. Ce n’est pas un sujet sur l’IA. Le calcul du Wicksell spread correspond à un graphique construit en intégrant « croissance annuelle du PIB + 2 % - taux d’intérêt annuel ». Le pic actuel est 17 fois plus grand que pendant la bulle internet. L’analyse économique en elle-même est intéressante

    • Le lien d’origine semble maintenant avoir été remplacé par un rapport Morningstar

    • Je trouve les arguments et les exemples beaucoup trop faibles. Le centre de recherche affirme que « des taux artificiellement bas ont stimulé les investissements dans l’IA, et que ces investissements arrivent à leur limite d’expansion », alors qu’en réalité les taux ont grimpé depuis 2022 à leur plus haut niveau depuis des décennies. Cette erreur de base suffit déjà à faire perdre confiance. Le récit selon lequel des taux élevés seraient nécessairement négatifs pour les prix des actifs est aussi trompeur. Les meilleures entreprises IA affichent des rendements attendus de 40 à 100 % par an ou plus, donc l’écart entre des taux à 1 % et à 5 % n’a pas beaucoup de poids dans la décision d’investissement du capital-risque. On a aussi vu dans les années 1980 et à la fin des années 1990 des valorisations tech élevées malgré des taux élevés. Les exemples cités, 2001 et 1991, correspondent plutôt à de faibles récessions. Après la crise des caisses d’épargne et de crédit (S&L) du début des années 1990, l’économie est même repartie fortement. L’IA est mieux placée pour ce genre d’analyse que des analystes surpayés et inutiles

  • Cet article cite une newsletter réservée aux abonnés. Cette vidéo semble être la même source d’origine. Pour résumer les propos de Julien Garran, l’allocation erronée du capital américain — y compris dans l’immobilier, le VC et la crypto — représenterait une bulle 17 fois plus grande que celle de la bulle internet, et 4 fois plus grande que celle de l’immobilier en 2008. S’il faut résorber cela, ce ne serait pas une simple récession, mais un événement capable d’ébranler les fondements mêmes du globalisme qui s’est mis en place entre 1979 et 1982 à l’époque Thatcher-Reagan, puis avec l’OMC et l’essor de la Chine

  • J’ai le sentiment que toutes les formes d’ingénierie financière destinées à soutenir une bulle finissent toujours mal. C’est toujours pareil. À chaque bulle, on voit proliférer des pratiques d’entreprise illégales ou douteuses, masquées par la frénésie du marché, puis tout ressort au grand jour quand la correction arrive

    • J’ai récemment écouté ce podcast de Prof G Markets, qui explique de façon intéressante le mécanisme de l’éclatement d’une bulle. En résumé, les entreprises lèvent des fonds en émettant de la dette, puis il y a des opérations de M&A, une IPO d’OpenAI, etc., et dès que les astuces de gonflement du chiffre d’affaires ne suffisent plus à répondre aux attentes du marché, tout s’effondre

    • Le vrai problème, c’est la « socialisation du risque au moment de la restructuration ». Tant que le signal envoyé est que l’État finira par intervenir avec un sauvetage, tout le monde est incité à prendre des risques absurdes. Plus c’est gros, plus c’est sauvé

    • La meilleure position dans une bulle, c’est d’être au milieu des transactions

  • Ce qui m’inquiète, c’est que les valorisations des entreprises par rapport à leur chiffre d’affaires sont dangereusement élevées, mais comme l’IA est une technologie à usage général, j’hésite encore à me retirer complètement du marché. On a vu quelque chose de similaire pendant la bulle internet, mais la technologie elle-même a survécu et a fini par donner naissance aux big tech. Il y a eu beaucoup de souffrance et des sociétés comme pets.com ont disparu, mais si nous revivons une période de ce type, je me demande s’il est vraiment judicieux de rester totalement à l’écart du marché

    • Pendant la bulle internet, le NASDAQ a chuté de près de 80 %, et c’est exactement le genre d’effondrement qu’on aimerait éviter à l’avance. Mais un krach arrive d’un coup, et il n’est pas facile de sortir suffisamment tôt. Quand, en pleine panique, on perd 20 % dans une seule journée, psychologiquement on ne sait plus s’il faut vendre ou attendre encore. Aujourd’hui, avec les « coupe-circuits », le marché peut même être suspendu temporairement, donc quelques heures de retard suffisent pour se retrouver avec des échanges déjà stoppés. Si tout le monde vend en même temps, le prix peut être bien plus bas à la reprise

    • J’aimerais savoir si vous avez déjà vu les prévisions de chiffre d’affaires d’OpenAI

  • Les sociétés d’investissement du Moyen-Orient et le fonds souverain saoudien, Masayoshi Son, a16z, le conseil d’administration de Tesla, etc., ont des comportements d’investissement qui paraissent un peu déconnectés de la réalité. On n’a pas l’impression qu’ils se soucient des intérêts des investisseurs ou des actionnaires. Je me demande s’ils se croient TBTF (Too Big To Fail, trop gros pour faire faillite). Je me demande aussi si JD Vance est influencé par cela. La taille de la bulle est un problème, mais ce qui fait encore plus peur, c’est que certains semblent clairement penser qu’on ne leur demandera jamais de comptes

    • Comme toujours, si jamais leurs paris tournent mal, ils brandiront la peur en disant quelque chose comme : « la Chine va nous dépasser ». Le grand public n’est inclus dans ce « nous » que lorsque Sam Altman a besoin de fonds publics

    • C’est peut-être cynique, mais au final ces gens éviteront vraiment d’avoir à rendre des comptes. Ce sont les mauvaises personnes qui seront punies, et eux s’en sortiront en disant : « personne n’aurait pu prévoir ça »

  • C’est une expérience de pensée intéressante. Que se passerait-il si une innovation faisait baisser de 90 % le coût d’entraînement des LLM sans perte de performance ? (Il y a aussi récemment des travaux venus de Chine sur le sujet.) Si la demande en GPU chutait fortement, je me demande quel impact cela aurait sur l’économie du boom de l’IA

    • Si l’entraînement devient moins cher, les coûts baissent et les modèles deviennent moins chers, donc plus rentables. On peut fabriquer davantage de grands modèles, plus vite, et multiplier aussi les petits modèles plus efficaces grâce à la distillation. L’entraînement est un coût pur, alors que l’inférence, si l’on met l’entraînement de côté, peut être très rentable. La baisse du coût d’entraînement serait donc très favorable au business des LLM

    • Ce problème ne concerne pas seulement l’IA, mais l’IT dans son ensemble. Les data centers aussi peuvent être construits de manière moins coûteuse et plus efficace, et les smartphones peuvent être utilisés plus longtemps. En fin de compte, les entreprises rechignent à entrer dans des marchés où la baisse des prix intensifie la concurrence jusqu’à la course vers le bas. Je pense qu’une innovation rendant l’entraînement des LLM bien moins cher ne se diffusera vraiment qu’une fois la capacité d’extension des data centers totalement épuisée

    • Comme dans le paradoxe de Jevons, il est possible qu’en réalité la demande ne baisse pas. Nvidia ou les grands laboratoires de recherche verraient leur valorisation reculer, mais resteraient tout de même en assez bonne position. Les résultats récents venus de Chine ont peut-être passé les benchmarks, mais ils n’ont pas encore prouvé une compétitivité réelle

    • Il y a déjà eu des anecdotes de ce genre. Une seule optimisation trouvée par quelqu’un a parfois suffi à faire s’évaporer instantanément 1 milliard de dollars de valeur. En apparence c’est ridicule, mais ça sent exactement la bulle

    • Le problème est plus large encore. Si un travail tolère très peu d’erreurs, les LLM ne sont pas adaptés. Mais dès qu’on accepte un peu plus de marge d’erreur, on peut faire tourner quelque chose comme deepseek en local à très bas coût. Au final, les grands data centers ne servent que pour l’entraînement, et pour la plupart des gens les services d’inférence ne sont pas économiquement justifiés. Cela pourrait déclencher à terme une série de gros problèmes financiers

  • Ce que cet article rate, c’est que le scaling des LLM n’est pas une courbe unique. Le RL (apprentissage par renforcement) produit des pics qui n’améliorent que certaines capacités précises. L’intelligence globale du modèle n’augmente pas : on colmate plutôt certains trous dans des domaines spécifiques avec le RL. En réalité, il n’y a pas une seule courbe de scaling, mais des milliers. L’amélioration de « l’intelligence de pointe » du modèle suit de plus en plus une courbe de rendements décroissants, tandis que le niveau minimal dans de nombreux domaines continue de monter. C’est quelque chose qu’on peut mal percevoir quand on n’évalue pas directement les modèles en pratique

  • J’ai testé le modèle Llama 3.2-3B ce week-end. Il faut encore que j’en explore les limites plus en profondeur, mais je l’ai trouvé utilisable. Il tourne à une vitesse proche de la « vitesse de lecture » même sur un GPU Intel Arc à 100 livres. J’aimerais aussi acheter une Arc770 (250 livres) pour voir si je peux faire tourner les modèles open weight d’OpenAI. Quand on voit ça, on peut se dire que même des investissements massifs pourraient être rapidement absorbés par la commercialisation des LLM

  • Certaines estimations disent que la bulle IA représente actuellement 20 à 30 % du marché actions. Pour rappel, la Grande Dépression a commencé avec une chute de 24 % du marché. Les gens qui pilotent ce jeu de l’IA savent que, si le gouvernement laisse faire naturellement, cela peut provoquer une nouvelle Grande Dépression, donc une intervention publique de sauvetage est en pratique certaine. Pendant ce temps, les gens ordinaires paieront l’inflation, les impôts élevés et l’augmentation de la dette publique, tandis que les dominants profiteront de leurs yachts et de leurs Lamborghini. Cette bulle IA est presque entièrement dissimulée derrière le private equity, si bien que le grand public a à peine l’occasion d’en profiter. Nvidia est peut-être l’une des rares exceptions. On a l’impression que la bulle est sur le point d’éclater. Le fait que Nvidia entre dans une phase finale de cavalerie de dette avec OpenAI, en finançant indirectement l’achat de ses propres produits pour les data centers d’OpenAI, en est un signe. Cela ressemble à la manière dont le CEO de WeWork prêtait son propre argent à son entreprise puis lui louait ses propres produits. AMD aussi a récemment commencé à faire circuler des fonds avec OpenAI via des transactions comparables. Il y a aussi cet article lié. À ce stade, on peut même se demander si parler de bulle a encore un sens. Dans tout le secteur, on retrouve ce comportement façon « ne les laisse jamais encaisser, comme ça ce n’est pas réel », comme dans le film Wolf of Wall Street

    • Ce phénomène de « se maintenir à flot par des investissements circulaires entre acteurs » m’est aussi revenu à l’esprit quand AMD et OpenAI ont annoncé leur partenariat stratégique. Cette seule annonce a suffi à faire bondir AMD de près de 35 % en une journée

    • L’IA n’est pas la seule bulle. SpaceX aussi. Même si Falcon 9 est une réussite commerciale, les deux tiers des lancements servent à Starlink, donc à des transactions internes sans chiffre d’affaires externe. Pourtant, malgré un nombre de lancements 25 fois supérieur à celui d’ULA, SpaceX vaut 200 fois plus qu’ULA

    • Je pense que ce schéma du « je te prête de l’argent pour que tu achètes mes produits » va aussi se reproduire entre États. Les États-Unis prêteront de l’argent au Japon, qui le réinvestira ensuite aux États-Unis, le tout en donnant l’apparence de la légalité

    • Je me demande si les deux affirmations « la bulle IA représente 20 à 30 % du marché actions » et « elle est presque entièrement cachée derrière le private equity » peuvent être vraies en même temps

  • Je découvre à l’instant qu’il existe des prêts garantis par des GPU, et ça me paraît extrêmement risqué

    • Ce n’est pas juste risqué, c’est presque complètement insensé. Un GPU perd énormément de valeur dès qu’il est installé

    • Honnêtement, si les banques doivent absorber les pertes sans qu’on mobilise mes impôts pour les renflouer, ça m’est égal, mais dans la réalité, ce n’est pas comme ça que ça se passe.