1 points par GN⁺ 3 시간 전 | 1 commentaires | Partager sur WhatsApp
  • Le principal indicateur de la course à l’IA est la commercialisation ; après DeepSeek R1, OpenAI et Anthropic ont commercialisé plus rapidement des agents, Codex et Claude Code
  • La valeur stratégique de DeepSeek en Chine tient moins aux revenus qu’à la réduction de la dépendance à Nvidia et au déplacement de l’inférence vers des stacks nationales comme Huawei Ascend
  • L’Europe a dépensé environ 58,8 milliards de dollars en services logiciels indiens sur l’exercice 2023-2024, puis environ 67,1 milliards de dollars l’année suivante, mais les modèles seuls ne créent pas assez de valeur
  • Le faible coût de l’électricité compte aussi, mais la portée cloud et data d’AWS, Azure, Google Cloud, YouTube, Microsoft 365 et GitHub est encore plus déterminante
  • L’IA militarisée et les modèles cyber de frontière comme Mythos d’Anthropic peuvent pousser les États et les industriels de la défense vers des stacks fermées et une sécurité par l’obscurité

Là où les États-Unis prennent l’avantage

  • La commercialisation est l’indicateur central de la course à l’IA, et après le choc provoqué sur le marché par DeepSeek R1 en janvier 2025, les entreprises américaines ont bougé plus vite
    • OpenAI a poussé plus fortement ses agents et Codex, et Anthropic a commercialisé Claude Code
    • La Chine a aussi des concurrents, mais sur le chiffre d’affaires, l’adoption, les outils et la portée, les États-Unis sont devant
  • La valeur stratégique de DeepSeek en Chine réside davantage dans la baisse de la dépendance à Nvidia et le transfert de l’inférence vers des stacks nationales comme Huawei Ascend que dans la performance commerciale
    • Cela soutient l’autonomie de la chaîne d’approvisionnement, mais c’est une question différente du leadership rentable dans l’IA
  • Le Christian Klein de SAP estime que l’Europe n’a pas besoin de davantage de centres de données et que les grands modèles de langage ne suffisent pas à eux seuls ; en pratique, les modèles seuls ne suffisent effectivement pas
    • L’Europe a dépensé environ 58,8 milliards de dollars en services logiciels indiens sur l’exercice 2023-2024, puis environ 67,1 milliards de dollars l’année suivante
    • L’IA ne crée de valeur que lorsqu’elle est reliée à des données réelles, des workflows réels et des produits réels
    • Les États-Unis construisent simultanément des puces, de l’énergie, des centres de données, des plateformes cloud, des outils développeur, des plateformes grand public et des logiciels d’entreprise, ce qui renforce leur avantage
  • Le nombre d’articles scientifiques ou d’ingénieurs ne prouve pas à lui seul le leadership en IA
    • Le véritable test porte sur le financement de l’infrastructure, l’entraînement et le service de modèles à grande échelle, ainsi que la capacité à déployer l’IA dans toute l’économie

Une puissance du cloud et de la donnée plus décisive encore que l’électricité

  • Le coût de l’électricité est important parce que les systèmes modernes à base de GPU et TPU convertissent l’électricité en capacité de calcul ; une énergie bon marché réduit le coût des modèles
    • Dans les comparaisons tarifaires, les États-Unis sont moins chers que les grandes économies d’Europe occidentale, et le Canada est encore moins cher que les États-Unis
    • La Chine et la Russie affichent des coûts inférieurs à ceux des États-Unis dans cette comparaison
    • Les tarifs résidentiels et professionnels sont de 0.436/0.279 en Allemagne, 0.420/0.415 au Royaume-Uni, 0.282/0.136 en Espagne, 0.274/0.174 en France, 0.201/0.154 aux États-Unis, 0.125/0.106 au Canada, 0.087/0.131 en Russie et 0.078/0.117 en Chine
  • L’infrastructure cloud et les données constituent une couche plus décisive encore que l’électricité
    • Les États-Unis peuvent déployer les modèles de leurs entreprises dans le monde entier grâce aux hyperscalers mondiaux que sont AWS, Azure et Google Cloud
    • YouTube forme un corpus vidéo, Google Drive et Microsoft 365 sont intégrés au travail de bureau quotidien, et GitHub est au cœur du développement logiciel
    • Ils servent à la fois de systèmes de distribution et de plateformes de données, et permettent d’insérer de nouveaux modèles dans des produits que les gens utilisent chaque jour
  • Avec une électricité bon marché seule, il est difficile de gagner la course à l’IA
    • Sans l’échelle du cloud, la portée des plateformes, l’écosystème développeur et l’accès à des flux massifs de données utiles, on peut perdre même avec un faible coût de l’électricité
    • Les États-Unis réunissent ces éléments en même temps, la Chine en possède une large part au sein de son vaste marché intérieur, et l’Europe non
  • L’Europe dispose depuis longtemps d’un solide vivier d’ingénieurs, mais le talent seul ne suffit pas
    • Les hyperscalers américains dominent déjà le marché, ce qui rend le rattrapage très long
    • Même si l’Europe finançait dès maintenant un véritable champion du cloud, la construction de l’infrastructure ne serait qu’une première étape ; il faudrait ensuite faire migrer banques, industriels et organismes publics vers cette plateforme
    • Ce processus pourrait prendre près de dix ans et, pendant ce temps, AWS, Azure et Google Cloud prendraient encore plus d’avance en échelle, en logiciel et en données
    • Arkady Volozh tente de faire de Nebius une entreprise européenne d’infrastructure IA, mais l’Europe est encore proche du point de départ
  • L’IA militarisée constitue aussi un autre front
    • L’étape suivante pourrait voir l’IA d’un pays affronter celle d’un autre dans des réseaux de bots, des campagnes cyber et des armes autonomes
    • Il n’est pas difficile d’ajuster des systèmes pour déshumaniser des concurrents, justifier la violence ou cibler des groupes entiers de population
    • Une fois les modèles intégrés aux médias, aux réseaux et aux armes, les biais se transforment en puissance, et la course à l’IA devient aussi une course à la sécurité
  • Des modèles comme Mythos d’Anthropic peuvent pousser les États et les industriels de la défense dans une autre direction
    • L’intuition héritée de Linux voulait que plus il y ait d’yeux sur le code ouvert, mieux ce soit, mais les modèles cyber de frontière peuvent imposer la logique inverse
    • On peut évoluer vers une sécurité par l’obscurité fondée sur des logiciels fermés, des outils fermés, des firmwares fermés et des puces fermées
    • Si un modèle ne peut pas s’entraîner sur le code et l’architecture de la stack visée, il dispose généralement de moins de contexte et agit moins vite
    • Cela ne rend pas les systèmes sûrs pour autant, mais augmente la valeur des stacks propriétaires allant jusqu’au matériel

1 commentaires

 
GN⁺ 3 시간 전
Avis sur Hacker News
  • Anthropic, OpenAI et Google se démarquent, certes, mais la vraie question est surtout de savoir pourquoi on appelle ça une guerre
    La Chine a beaucoup gagné dans son propre contexte et a aussi renforcé ses capacités de conception et de fabrication de GPU
    Si c’est vraiment une guerre, alors Trump handicape son propre pays en sapant l’État de droit et en affaiblissant la sympathie envers les États-Unis. Si le monde estime qu’il est difficile de confier ses données à la Chine et difficile de faire confiance à des services stables aux États-Unis, alors même une victoire dans la guerre de l’IA pourrait rapporter peu aux États-Unis
    Cela pourrait au contraire être une bonne chose pour des régions comme l’Europe, capables de bâtir leur propre stack technologique, et comme la stack IA est extrêmement chère, il y a cette situation paradoxale où les puissants modèles open source chinois aident peut-être davantage le monde que les États-Unis

    • La réponse à « pourquoi une guerre » est qu’en toile de fond, il y a cette promesse exagérée selon laquelle l’organisation qui atteindra en premier l’AGI, encore très théorique, pourra ensuite se bootstrapper jusqu’à des pouvoirs divins et installer un Planetary Overlord pour dominer le monde
      Ça me paraît absurde, mais la dynamique vient de là. L’expression a été inventée par l’auteur de SF Charles Stross dans The Jennifer Morgue (2006)
    • C’est parce que les États-Unis n’arrivent pas à l’imaginer autrement. Tout est une guerre, et les États-Unis doivent toujours gagner
    • Cela devient une guerre parce que les investisseurs veulent monopoliser le marché. C’est ce qu’ils font par nature, et c’est ce qu’ils voudront toujours faire
    • Le titre a changé ? Maintenant, c’est race et non plus « war »
    • Le mot guerre vient au fond de l’idée qu’une fois la singularité atteinte, on pourrait dépasser les contraintes à échelle humaine et écraser tout le monde
      On peut fabriquer de meilleurs fusils, mais il y a toujours une limite au nombre de personnes pour les porter, donc on ne conquiert pas le monde comme ça. Mais si quelqu’un invente une superintelligence, il pourrait très vite dominer la recherche en IA, contrôler l’économie mondiale et faire la guerre bien plus efficacement
  • Je l’ai signalé comme contenu généré par IA. Cet article n’a rien à faire en page d’accueil, et vu l’historique des soumissions et commentaires de son auteur, il mériterait sans doute des sanctions
    Concernant l’affirmation « les États-Unis gagnent la compétition IA sur le terrain le plus important, la commercialisation », il peut y avoir plusieurs critères pour définir la victoire, et la commercialisation n’est pas le premier qui me vient à l’esprit
    https://english.www.gov.cn/news/202604/15/content_WS69df29e6...
    https://fortune.com/2026/05/03/chinese-court-layoffs-workers...
    https://www.reuters.com/world/china/china-moves-regulate-dig...
    L’idée que YouTube, Google Drive, Microsoft 365 et GitHub seraient les plateformes qui créent et organisent les données de l’ère de l’IA ne me convainc pas non plus. Comme si la Chine n’avait ni plateformes ni données

    • Selon Pangram, c’est totalement un texte généré par IA
      Il faudrait une règle imposant la divulgation ou la suppression des textes produits par LLM. On dirait même que tout le blog est généré par IA
    • Bien vu. J’hésitais à le qualifier d’article atroce, mais c’est bien ce que c’est
    • J’aimerais qu’on puisse bloquer certains utilisateurs pour ne plus voir leurs posts. La page d’accueil serait bien meilleure sans des gens comme l’OP
  • Je ne comprends pas comment ce genre de radotage incohérent peut percer sur HN. Comment la culture HN a-t-elle changé au point que ce type de contenu monte jusqu’en haut

    • https://paulgraham.com/submarine.html
    • C’est un site où n’importe qui peut créer plusieurs comptes en quelques minutes, avec un minimum de mécanismes anti-abus
      La force de la communauté reposait entièrement sur le fait d’être relativement peu connue, mais ce n’est plus le cas. À partir du moment où l’endroit devient assez grand pour servir de plateforme de propagande politique, c’en est fini de son statut d’espace pour intellectuels
    • Même si le post soumis est mauvais, son hypothèse centrale peut tout de même rester digne de débat
      Pour info, je n’ai pas voté pour cette soumission
    • J’ai l’impression que beaucoup de gens upvotent juste le titre sans lire le contenu
      Le titre est assez accrocheur, mais le contenu est un déchet généré de mauvaise qualité
    • Sur HN comme ailleurs, les textes absurdes montent souvent
      La révolte des masses est bien réelle
  • Non, les États-Unis sont simplement en tête dans la course à l’IA, mais la course n’est pas terminée
    À quoi bon mener à 90 % du parcours si l’on glisse sur sa propre sueur juste avant la ligne d’arrivée ? Même si l’on dépense des dizaines de milliards pour obtenir les meilleures technologies d’IA quel qu’en soit le prix, cela perd de son sens si un concurrent peut distiller ces avancées, rattraper le retard en 6 à 12 mois et ne dépenser que 1 % du coût
    Même sur la commercialisation, que l’article met en avant, les États-Unis commencent à perdre des parts. Récemment, j’ai vu des gens passer des offres cc/codex aux offres glm/opencode à mesure que les entreprises américaines resserraient l’usage de leurs forfaits. Si cette tendance se confirme, les entreprises américaines auront un problème. Tout le monde n’a pas besoin des modèles les plus avancés ; beaucoup veulent simplement un modèle assez bon pour 20 dollars par mois

    • Et si ce n’était pas un marché où le gagnant rafle tout ? Et s’il n’y avait pas vraiment de course ? Et si ce que font les États-Unis consistait seulement à brûler de l’argent avec une dette potentiellement insoutenable et des valorisations massivement gonflées ?
      Il est possible que l’IA devienne comme de la capacité serveur générique. Si les clients peuvent très bien se passer d’hyperscalers, l’ensemble du marché actuel pourrait sembler assez idiot
    • Si quelqu’un disait qu’une équipe de foot gagne à la mi-temps, vous répondriez : « non, elle ne gagne pas, elle est juste devant » ?
    • Être en tête n’a d’importance que si c’est un marché où le gagnant rafle tout. Or l’IA ne peut pas le devenir à cause des enjeux de sécurité nationale
      J’ai plutôt l’impression que plus l’IA s’améliore, plus elle deviendra interchangeable. Elle pourrait devenir quelque chose de précieux comme l’électricité. Beaucoup d’entreprises gagnent de l’argent avec l’électricité, mais pas au niveau que les investisseurs actuels espèrent
    • Mark Cuban a récemment expliqué dans une interview que les entreprises craignent qu’au final il n’en reste qu’une seule. Un peu comme il n’y a en pratique qu’une seule grande entreprise de publicité sur Internet aujourd’hui, elles veulent être cette unique entreprise
      Qu’il n’en reste vraiment qu’une est discutable, mais selon Cuban, c’est au moins ainsi qu’elles raisonnent
  • Autrefois, il y avait les profits et le retour sur investissement
    Si votre stratégie de sortie consiste à vous faire racheter par Google, se concentrer sur le chiffre d’affaires peut être une bonne stratégie. Mais si vous êtes Google, l’argent dépensé doit finir par être récupéré. On semble l’avoir oublié
    Le niveau actuel de commercialisation signifie seulement que les États-Unis brûlent plus vite les investissements que n’importe qui d’autre. Peut-être qu’un jour la situation changera et que le pari paiera, mais chaque minute supplémentaire dans cet état implique que le rendement attendu devra être encore plus élevé afin de compenser la perte de cette minute ainsi que les intérêts accumulés auparavant. Je ne suis pas sûr que cela ressemble à une situation où l’on « gagne ». TikTok

  • Le gagnant à long terme sera celui qui offrira les meilleures performances en modèle local avec le plus faible usage mémoire
    Anthropic, OpenAI et Mistral sont simplement les entreprises qui gagnent de l’argent aujourd’hui, mais elles ne sont toujours pas rentables et, à long terme, elles perdront leur traction et leur valeur
    Cela dit, l’évolution de l’abonnement OpenCode Go m’intéresse davantage. C’est moins cher que la big tech, il y a plus de tokens, et l’entreprise affirme ne pas entraîner ses modèles sur nos données sous prétexte d’essayer de s’améliorer

    • Si Claude est bon, c’est justement parce qu’il fait du reinforcement learning à partir des historiques de chat et des cas d’usage utilisateurs ; ne pas s’entraîner sur les données n’est donc pas un avantage mais un inconvénient
      L’époque de l’entraînement sur données purement publiques est terminée. Tout le monde peut accéder à ces données, mais il n’y a que quelques modèles de pointe
    • Les modèles locaux ne peuvent pas rivaliser avec les grands modèles récents. C’est comme si un iPhone devait concurrencer un supercalculateur qui simule des armes nucléaires
      Les deux trajectoires vont diverger. Le coût d’exécution des modèles de pointe deviendra probablement si élevé qu’ils finiront verrouillés, accessibles seulement à des acteurs étatiques. Ça a déjà commencé dans Mythos
    • Mistral ? Son « chiffre d’affaires » semble être de l’ordre de 1/150 de celui d’OpenAI et d’Anthropic
  • L’explication la plus simple au fait que les États-Unis gagnent, c’est à mon avis qu’ils injectent le plus d’argent, et de très loin

    • Ce n’est pas seulement injecter de l’argent, c’est presque l’imprimer
      Les reconnaissances de dette circulaires entre entreprises d’IA et hyperscalers constituent une forme de dette, donc une forme de création monétaire. Bien sûr, il y a aussi beaucoup de vrais dollars, mais investir de l’argent qui n’existe pas comporte toujours un risque énorme
    • Je comprends peut-être mal le capitalisme, mais le principe n’est-il pas censé être « gagne celui qui fait le plus de profits » ? Si l’on gagne juste en dépensant, il faudrait peut-être revoir les paramètres du marché capitaliste
  • Non, les États-Unis ne gagnent pas. C’est simplement l’impression que cela donne parce qu’en Occident, l’usage de modèles chinois à des fins professionnelles est interdit

    • Exactement. Beaucoup de gens ignorent que GLM 5.1 et Kimi 2.6 sont vraiment très proches des modèles de pointe. Il y a aussi Minimax 2.7, DeepSeek 4, Qwen, Xiaomi 2.5 Pro, etc.
      La Chine est en tête sur les modèles open source de pointe, donc je ne vois pas bien en quoi les États-Unis gagneraient cette course. À un moment, entreprises et particuliers commenceront à faire tourner leurs propres modèles dans le cloud et en local, et les modèles chinois seront partout
    • Si j’ai bien compris, ce ne sont pas les modèles qui sont interdits, mais les plateformes
      Par exemple, on peut tout à fait héberger et exécuter soi-même deepseek-r1-distill-qwen-7b. En revanche, télécharger l’application DeepSeek et l’exécuter sur un appareil professionnel n’est pas acceptable pour ceux qui imposent ces interdictions
    • C’est parce que les modèles hébergés en Chine ne sont pas jugés dignes de confiance. Cela fait aussi pleinement partie de ce qu’on appelle la commercialisation
    • Existe-t-il des preuves solides que ces modèles dépassent les modèles occidentaux en qualité ? Ou est-ce plutôt qu’ils ont du mal à concurrencer faute d’accès suffisant aux données d’entraînement et à la visibilité, précisément parce qu’ils sont interdits ?
    • Si l’on peut utiliser plus largement quelque chose comme Qwen, cela change-t-il vraiment la position stratégique des États-Unis ? Les États-Unis ont les meilleurs modèles, ainsi que les meilleures infrastructures et les entreprises qui construisent les hyperscalers
      Le simple fait de se dire « ah, on peut maintenant utiliser Qwen » ne me semble pas de nature à porter un coup énorme aux États-Unis
  • Vu de loin, cette thèse n’a pas de sens. Anthropic, OpenAI, xAI, Google, Meta et Microsoft ne réalisent pas de profits sur leurs divisions IA ; ils tiennent grâce à l’argent des maisons mères ou des investisseurs, surtout celui des investisseurs, tout en accumulant des pertes
    Les modèles chinois les rattrapent tout en étant gratuits, capables de tourner sur du matériel grand public et, plus important encore, entraînés à moindre coût. Les modèles d’IA sont des produits extrêmement volatils qui peuvent devenir obsolètes en quelques semaines. Au final, ils doivent continuer à déverser des ressources dans de meilleurs modèles sans autre objectif qu’une expansion sans fin
    Du point de vue du comportement réel des utilisateurs, tout se résume à : « Gemini est moins bon que Claude sur XYZ, donc je ne l’utilise pas ». Si les modèles Gemini deviennent moins bons, les gens passent chez Anthropic. Et si demain les modèles Anthropic deviennent moins bons que les autres ? À quoi bon bien commercialiser un produit objectivement inférieur ?
    Je comprends l’idée que les États-Unis dominent la distribution, l’intégration, les contrats entreprise, l’écosystème et l’infrastructure. L’article n’est pas faux sur ce point, mais cette domination est fragile et exige des mises à niveau continues
    Si l’on doit poursuivre une expansion infinie alors qu’un concurrent est constamment juste derrière, prêt à dépasser, qu’est-ce que cela signifie au juste ? Une expansion infinie est impossible, et l’argent du capital-risque finira par se tarir. À ce moment-là, tout le monde devra réduire la voilure pour pouvoir assumer le coût réel des modèles les plus récents, et ces coûts gigantesques devront être couverts par des abonnements ou d’autres formes de monétisation. On a déjà vu SORA être stoppé parce qu’il brûlait l’argent trop vite, pendant que la Chine enchaînait des modèles vidéo largement meilleurs
    L’intégration des modèles dans d’autres produits est aussi essentielle, et même dans ce domaine l’open source est en train de rattraper son retard ; quand l’argent du VC se tarira, il finira probablement par prendre l’avantage

    • L’affirmation selon laquelle ils « ne font pas de profits dans l’IA » demanderait des sources
      D’après les informations disponibles, ils sont rentables sur la partie inférence, et l’argent du VC sert à construire des datacenters pour faire encore plus d’inférence. Les abonnements orientés code sont peut-être en moyenne autour du point mort, mais l’argent se trouve dans les API
      L’idée que les modèles chinois tournent sur du matériel grand public est aussi exagérée. Personne ne fait tourner un modèle de 1.6T tokens comme DeepSeek v4 sur du matériel grand public
      Le coût d’entraînement n’est pas non plus tellement inférieur à celui des modèles américains. La big tech chinoise subventionne l’entraînement, et leurs modèles sont un peu moins chers parce qu’ils sont plus petits et moins puissants que les modèles 5T et 10T entraînés par les laboratoires américains de pointe. Les labos américains dépensent aussi davantage pour des données de reinforcement learning plus variées, et cette différence se voit dans différents benchmarks
      L’exemple de Sora prouve plutôt la thèse de l’article. OpenAI n’a pas arrêté Sora ; l’entreprise a simplement fermé la version par abonnement et le réseau social étrange qui allait avec, mais l’accès API existe toujours
      Les modèles vidéo chinois sont eux aussi des modèles API, et tout comme les LLM semblent rentables pour les laboratoires américains de pointe, ils le sont probablement aussi pour eux. Les prix des modèles vidéo sont ici [1], avec une large fourchette, mais Google Veo et OpenAI Sora sont globalement dans la même gamme de prix que les modèles chinois
      [1] https://openrouter.ai/models?output_modalities=video
    • Si les modèles chinois n’avaient pas fait de distillation à partir de modèles plus grands, ils en seraient restés au niveau de gpt2 ou 3
  • Ce qu’Anthropic a fait d’intéressant, c’est déployer sa stack sur plusieurs fournisseurs cloud. Ils l’ont d’abord mise sur AWS d’une manière qu’on voit rarement chez les grands fournisseurs IA jusqu’ici, donc je me demande s’ils iront ensuite sur GCP et Azure
    Si une entreprise peut avoir sa propre stack Claude sur son propre cloud, comme une stack ELK, alors si cela devient possible aussi sur Azure et GCP, OpenAI aura vraiment du retard à rattraper
    Personnellement, je préfère utiliser une IA qui tourne sur une infrastructure que je paie moi-même. En cas de panne, c’est isolé, et je peux aussi basculer vers une autre région ou un autre datacenter
    Je reste également surpris que Microsoft ou Amazon ne mettent pas plus frontalement leurs propres modèles en avant dans leurs offres cloud. Microsoft a sans doute mis Phi quelque part, mais sans le pousser au premier plan. En particulier pour des produits comme Copilot for Devs, ils pourraient utiliser des calculs moins chers avec des modèles de type Phi, mais Microsoft devrait déjà commencer par renommer le produit pour clarifier ce que signifie réellement Copilot

    • Le contrat récent avec SpaceX AI est assez révélateur, dans la mesure où il exploite du calcul GPU fortement sous-utilisé
      Placer du calcul est un problème matériel, mais sortir de bons modèles demande plus que du calcul : il faut de bons ingénieurs IA. SpaceX, Amazon et d’autres sont peut-être excellents sur le matériel, sans être au même niveau sur l’ingénierie IA
    • Claude est déjà disponible sur Azure et GCP
      https://azure.microsoft.com/en-us/blog/introducing-anthropic...
      https://docs.cloud.google.com/gemini-enterprise-agent-platfo...
      Claude est aussi disponible depuis longtemps sur AWS Bedrock
      La nouvelle annonce autour de « Claude Platform » concerne une version exploitée par Anthropic sur AWS, et non l’exploitation directe via Bedrock. La différence est expliquée ici : https://platform.claude.com/docs/en/build-with-claude/claude...
      Et la demande de pouvoir l’exécuter sur une infrastructure payée par soi-même, Claude y répond déjà depuis assez longtemps
      L’une des raisons pour lesquelles OpenAI s’est éloigné de Microsoft était justement de pouvoir être proposé sur AWS. Ils estimaient qu’il y avait une vraie demande sur AWS, et le fait d’être cantonné à Azure les handicapait
    • Claude est déjà sur Vertex - https://docs.cloud.google.com/vertex-ai/generative-ai/docs/p...