Les États-Unis gagnent la course à l’IA sur le terrain le plus important : la commercialisation
(avkcode.github.io)- Le principal indicateur de la course à l’IA est la commercialisation ; après DeepSeek R1, OpenAI et Anthropic ont commercialisé plus rapidement des agents, Codex et Claude Code
- La valeur stratégique de DeepSeek en Chine tient moins aux revenus qu’à la réduction de la dépendance à Nvidia et au déplacement de l’inférence vers des stacks nationales comme Huawei Ascend
- L’Europe a dépensé environ 58,8 milliards de dollars en services logiciels indiens sur l’exercice 2023-2024, puis environ 67,1 milliards de dollars l’année suivante, mais les modèles seuls ne créent pas assez de valeur
- Le faible coût de l’électricité compte aussi, mais la portée cloud et data d’AWS, Azure, Google Cloud, YouTube, Microsoft 365 et GitHub est encore plus déterminante
- L’IA militarisée et les modèles cyber de frontière comme Mythos d’Anthropic peuvent pousser les États et les industriels de la défense vers des stacks fermées et une sécurité par l’obscurité
Là où les États-Unis prennent l’avantage
- La commercialisation est l’indicateur central de la course à l’IA, et après le choc provoqué sur le marché par DeepSeek R1 en janvier 2025, les entreprises américaines ont bougé plus vite
- OpenAI a poussé plus fortement ses agents et Codex, et Anthropic a commercialisé Claude Code
- La Chine a aussi des concurrents, mais sur le chiffre d’affaires, l’adoption, les outils et la portée, les États-Unis sont devant
- La valeur stratégique de DeepSeek en Chine réside davantage dans la baisse de la dépendance à Nvidia et le transfert de l’inférence vers des stacks nationales comme Huawei Ascend que dans la performance commerciale
- Cela soutient l’autonomie de la chaîne d’approvisionnement, mais c’est une question différente du leadership rentable dans l’IA
- Le Christian Klein de SAP estime que l’Europe n’a pas besoin de davantage de centres de données et que les grands modèles de langage ne suffisent pas à eux seuls ; en pratique, les modèles seuls ne suffisent effectivement pas
- L’Europe a dépensé environ 58,8 milliards de dollars en services logiciels indiens sur l’exercice 2023-2024, puis environ 67,1 milliards de dollars l’année suivante
- L’IA ne crée de valeur que lorsqu’elle est reliée à des données réelles, des workflows réels et des produits réels
- Les États-Unis construisent simultanément des puces, de l’énergie, des centres de données, des plateformes cloud, des outils développeur, des plateformes grand public et des logiciels d’entreprise, ce qui renforce leur avantage
- Le nombre d’articles scientifiques ou d’ingénieurs ne prouve pas à lui seul le leadership en IA
- Le véritable test porte sur le financement de l’infrastructure, l’entraînement et le service de modèles à grande échelle, ainsi que la capacité à déployer l’IA dans toute l’économie
Une puissance du cloud et de la donnée plus décisive encore que l’électricité
- Le coût de l’électricité est important parce que les systèmes modernes à base de GPU et TPU convertissent l’électricité en capacité de calcul ; une énergie bon marché réduit le coût des modèles
- Dans les comparaisons tarifaires, les États-Unis sont moins chers que les grandes économies d’Europe occidentale, et le Canada est encore moins cher que les États-Unis
- La Chine et la Russie affichent des coûts inférieurs à ceux des États-Unis dans cette comparaison
- Les tarifs résidentiels et professionnels sont de 0.436/0.279 en Allemagne, 0.420/0.415 au Royaume-Uni, 0.282/0.136 en Espagne, 0.274/0.174 en France, 0.201/0.154 aux États-Unis, 0.125/0.106 au Canada, 0.087/0.131 en Russie et 0.078/0.117 en Chine
- L’infrastructure cloud et les données constituent une couche plus décisive encore que l’électricité
- Les États-Unis peuvent déployer les modèles de leurs entreprises dans le monde entier grâce aux hyperscalers mondiaux que sont AWS, Azure et Google Cloud
- YouTube forme un corpus vidéo, Google Drive et Microsoft 365 sont intégrés au travail de bureau quotidien, et GitHub est au cœur du développement logiciel
- Ils servent à la fois de systèmes de distribution et de plateformes de données, et permettent d’insérer de nouveaux modèles dans des produits que les gens utilisent chaque jour
- Avec une électricité bon marché seule, il est difficile de gagner la course à l’IA
- Sans l’échelle du cloud, la portée des plateformes, l’écosystème développeur et l’accès à des flux massifs de données utiles, on peut perdre même avec un faible coût de l’électricité
- Les États-Unis réunissent ces éléments en même temps, la Chine en possède une large part au sein de son vaste marché intérieur, et l’Europe non
- L’Europe dispose depuis longtemps d’un solide vivier d’ingénieurs, mais le talent seul ne suffit pas
- Les hyperscalers américains dominent déjà le marché, ce qui rend le rattrapage très long
- Même si l’Europe finançait dès maintenant un véritable champion du cloud, la construction de l’infrastructure ne serait qu’une première étape ; il faudrait ensuite faire migrer banques, industriels et organismes publics vers cette plateforme
- Ce processus pourrait prendre près de dix ans et, pendant ce temps, AWS, Azure et Google Cloud prendraient encore plus d’avance en échelle, en logiciel et en données
- Arkady Volozh tente de faire de Nebius une entreprise européenne d’infrastructure IA, mais l’Europe est encore proche du point de départ
- L’IA militarisée constitue aussi un autre front
- L’étape suivante pourrait voir l’IA d’un pays affronter celle d’un autre dans des réseaux de bots, des campagnes cyber et des armes autonomes
- Il n’est pas difficile d’ajuster des systèmes pour déshumaniser des concurrents, justifier la violence ou cibler des groupes entiers de population
- Une fois les modèles intégrés aux médias, aux réseaux et aux armes, les biais se transforment en puissance, et la course à l’IA devient aussi une course à la sécurité
- Des modèles comme Mythos d’Anthropic peuvent pousser les États et les industriels de la défense dans une autre direction
- L’intuition héritée de Linux voulait que plus il y ait d’yeux sur le code ouvert, mieux ce soit, mais les modèles cyber de frontière peuvent imposer la logique inverse
- On peut évoluer vers une sécurité par l’obscurité fondée sur des logiciels fermés, des outils fermés, des firmwares fermés et des puces fermées
- Si un modèle ne peut pas s’entraîner sur le code et l’architecture de la stack visée, il dispose généralement de moins de contexte et agit moins vite
- Cela ne rend pas les systèmes sûrs pour autant, mais augmente la valeur des stacks propriétaires allant jusqu’au matériel
1 commentaires
Avis sur Hacker News
Anthropic, OpenAI et Google se démarquent, certes, mais la vraie question est surtout de savoir pourquoi on appelle ça une guerre
La Chine a beaucoup gagné dans son propre contexte et a aussi renforcé ses capacités de conception et de fabrication de GPU
Si c’est vraiment une guerre, alors Trump handicape son propre pays en sapant l’État de droit et en affaiblissant la sympathie envers les États-Unis. Si le monde estime qu’il est difficile de confier ses données à la Chine et difficile de faire confiance à des services stables aux États-Unis, alors même une victoire dans la guerre de l’IA pourrait rapporter peu aux États-Unis
Cela pourrait au contraire être une bonne chose pour des régions comme l’Europe, capables de bâtir leur propre stack technologique, et comme la stack IA est extrêmement chère, il y a cette situation paradoxale où les puissants modèles open source chinois aident peut-être davantage le monde que les États-Unis
Ça me paraît absurde, mais la dynamique vient de là. L’expression a été inventée par l’auteur de SF Charles Stross dans The Jennifer Morgue (2006)
On peut fabriquer de meilleurs fusils, mais il y a toujours une limite au nombre de personnes pour les porter, donc on ne conquiert pas le monde comme ça. Mais si quelqu’un invente une superintelligence, il pourrait très vite dominer la recherche en IA, contrôler l’économie mondiale et faire la guerre bien plus efficacement
Je l’ai signalé comme contenu généré par IA. Cet article n’a rien à faire en page d’accueil, et vu l’historique des soumissions et commentaires de son auteur, il mériterait sans doute des sanctions
Concernant l’affirmation « les États-Unis gagnent la compétition IA sur le terrain le plus important, la commercialisation », il peut y avoir plusieurs critères pour définir la victoire, et la commercialisation n’est pas le premier qui me vient à l’esprit
https://english.www.gov.cn/news/202604/15/content_WS69df29e6...
https://fortune.com/2026/05/03/chinese-court-layoffs-workers...
https://www.reuters.com/world/china/china-moves-regulate-dig...
L’idée que YouTube, Google Drive, Microsoft 365 et GitHub seraient les plateformes qui créent et organisent les données de l’ère de l’IA ne me convainc pas non plus. Comme si la Chine n’avait ni plateformes ni données
Il faudrait une règle imposant la divulgation ou la suppression des textes produits par LLM. On dirait même que tout le blog est généré par IA
Je ne comprends pas comment ce genre de radotage incohérent peut percer sur HN. Comment la culture HN a-t-elle changé au point que ce type de contenu monte jusqu’en haut
La force de la communauté reposait entièrement sur le fait d’être relativement peu connue, mais ce n’est plus le cas. À partir du moment où l’endroit devient assez grand pour servir de plateforme de propagande politique, c’en est fini de son statut d’espace pour intellectuels
Pour info, je n’ai pas voté pour cette soumission
Le titre est assez accrocheur, mais le contenu est un déchet généré de mauvaise qualité
La révolte des masses est bien réelle
Non, les États-Unis sont simplement en tête dans la course à l’IA, mais la course n’est pas terminée
À quoi bon mener à 90 % du parcours si l’on glisse sur sa propre sueur juste avant la ligne d’arrivée ? Même si l’on dépense des dizaines de milliards pour obtenir les meilleures technologies d’IA quel qu’en soit le prix, cela perd de son sens si un concurrent peut distiller ces avancées, rattraper le retard en 6 à 12 mois et ne dépenser que 1 % du coût
Même sur la commercialisation, que l’article met en avant, les États-Unis commencent à perdre des parts. Récemment, j’ai vu des gens passer des offres cc/codex aux offres glm/opencode à mesure que les entreprises américaines resserraient l’usage de leurs forfaits. Si cette tendance se confirme, les entreprises américaines auront un problème. Tout le monde n’a pas besoin des modèles les plus avancés ; beaucoup veulent simplement un modèle assez bon pour 20 dollars par mois
Il est possible que l’IA devienne comme de la capacité serveur générique. Si les clients peuvent très bien se passer d’hyperscalers, l’ensemble du marché actuel pourrait sembler assez idiot
J’ai plutôt l’impression que plus l’IA s’améliore, plus elle deviendra interchangeable. Elle pourrait devenir quelque chose de précieux comme l’électricité. Beaucoup d’entreprises gagnent de l’argent avec l’électricité, mais pas au niveau que les investisseurs actuels espèrent
Qu’il n’en reste vraiment qu’une est discutable, mais selon Cuban, c’est au moins ainsi qu’elles raisonnent
Autrefois, il y avait les profits et le retour sur investissement
Si votre stratégie de sortie consiste à vous faire racheter par Google, se concentrer sur le chiffre d’affaires peut être une bonne stratégie. Mais si vous êtes Google, l’argent dépensé doit finir par être récupéré. On semble l’avoir oublié
Le niveau actuel de commercialisation signifie seulement que les États-Unis brûlent plus vite les investissements que n’importe qui d’autre. Peut-être qu’un jour la situation changera et que le pari paiera, mais chaque minute supplémentaire dans cet état implique que le rendement attendu devra être encore plus élevé afin de compenser la perte de cette minute ainsi que les intérêts accumulés auparavant. Je ne suis pas sûr que cela ressemble à une situation où l’on « gagne ». TikTok
Le gagnant à long terme sera celui qui offrira les meilleures performances en modèle local avec le plus faible usage mémoire
Anthropic, OpenAI et Mistral sont simplement les entreprises qui gagnent de l’argent aujourd’hui, mais elles ne sont toujours pas rentables et, à long terme, elles perdront leur traction et leur valeur
Cela dit, l’évolution de l’abonnement OpenCode Go m’intéresse davantage. C’est moins cher que la big tech, il y a plus de tokens, et l’entreprise affirme ne pas entraîner ses modèles sur nos données sous prétexte d’essayer de s’améliorer
L’époque de l’entraînement sur données purement publiques est terminée. Tout le monde peut accéder à ces données, mais il n’y a que quelques modèles de pointe
Les deux trajectoires vont diverger. Le coût d’exécution des modèles de pointe deviendra probablement si élevé qu’ils finiront verrouillés, accessibles seulement à des acteurs étatiques. Ça a déjà commencé dans Mythos
L’explication la plus simple au fait que les États-Unis gagnent, c’est à mon avis qu’ils injectent le plus d’argent, et de très loin
Les reconnaissances de dette circulaires entre entreprises d’IA et hyperscalers constituent une forme de dette, donc une forme de création monétaire. Bien sûr, il y a aussi beaucoup de vrais dollars, mais investir de l’argent qui n’existe pas comporte toujours un risque énorme
Non, les États-Unis ne gagnent pas. C’est simplement l’impression que cela donne parce qu’en Occident, l’usage de modèles chinois à des fins professionnelles est interdit
La Chine est en tête sur les modèles open source de pointe, donc je ne vois pas bien en quoi les États-Unis gagneraient cette course. À un moment, entreprises et particuliers commenceront à faire tourner leurs propres modèles dans le cloud et en local, et les modèles chinois seront partout
Par exemple, on peut tout à fait héberger et exécuter soi-même
deepseek-r1-distill-qwen-7b. En revanche, télécharger l’application DeepSeek et l’exécuter sur un appareil professionnel n’est pas acceptable pour ceux qui imposent ces interdictionsLe simple fait de se dire « ah, on peut maintenant utiliser Qwen » ne me semble pas de nature à porter un coup énorme aux États-Unis
Vu de loin, cette thèse n’a pas de sens. Anthropic, OpenAI, xAI, Google, Meta et Microsoft ne réalisent pas de profits sur leurs divisions IA ; ils tiennent grâce à l’argent des maisons mères ou des investisseurs, surtout celui des investisseurs, tout en accumulant des pertes
Les modèles chinois les rattrapent tout en étant gratuits, capables de tourner sur du matériel grand public et, plus important encore, entraînés à moindre coût. Les modèles d’IA sont des produits extrêmement volatils qui peuvent devenir obsolètes en quelques semaines. Au final, ils doivent continuer à déverser des ressources dans de meilleurs modèles sans autre objectif qu’une expansion sans fin
Du point de vue du comportement réel des utilisateurs, tout se résume à : « Gemini est moins bon que Claude sur XYZ, donc je ne l’utilise pas ». Si les modèles Gemini deviennent moins bons, les gens passent chez Anthropic. Et si demain les modèles Anthropic deviennent moins bons que les autres ? À quoi bon bien commercialiser un produit objectivement inférieur ?
Je comprends l’idée que les États-Unis dominent la distribution, l’intégration, les contrats entreprise, l’écosystème et l’infrastructure. L’article n’est pas faux sur ce point, mais cette domination est fragile et exige des mises à niveau continues
Si l’on doit poursuivre une expansion infinie alors qu’un concurrent est constamment juste derrière, prêt à dépasser, qu’est-ce que cela signifie au juste ? Une expansion infinie est impossible, et l’argent du capital-risque finira par se tarir. À ce moment-là, tout le monde devra réduire la voilure pour pouvoir assumer le coût réel des modèles les plus récents, et ces coûts gigantesques devront être couverts par des abonnements ou d’autres formes de monétisation. On a déjà vu SORA être stoppé parce qu’il brûlait l’argent trop vite, pendant que la Chine enchaînait des modèles vidéo largement meilleurs
L’intégration des modèles dans d’autres produits est aussi essentielle, et même dans ce domaine l’open source est en train de rattraper son retard ; quand l’argent du VC se tarira, il finira probablement par prendre l’avantage
D’après les informations disponibles, ils sont rentables sur la partie inférence, et l’argent du VC sert à construire des datacenters pour faire encore plus d’inférence. Les abonnements orientés code sont peut-être en moyenne autour du point mort, mais l’argent se trouve dans les API
L’idée que les modèles chinois tournent sur du matériel grand public est aussi exagérée. Personne ne fait tourner un modèle de 1.6T tokens comme DeepSeek v4 sur du matériel grand public
Le coût d’entraînement n’est pas non plus tellement inférieur à celui des modèles américains. La big tech chinoise subventionne l’entraînement, et leurs modèles sont un peu moins chers parce qu’ils sont plus petits et moins puissants que les modèles 5T et 10T entraînés par les laboratoires américains de pointe. Les labos américains dépensent aussi davantage pour des données de reinforcement learning plus variées, et cette différence se voit dans différents benchmarks
L’exemple de Sora prouve plutôt la thèse de l’article. OpenAI n’a pas arrêté Sora ; l’entreprise a simplement fermé la version par abonnement et le réseau social étrange qui allait avec, mais l’accès API existe toujours
Les modèles vidéo chinois sont eux aussi des modèles API, et tout comme les LLM semblent rentables pour les laboratoires américains de pointe, ils le sont probablement aussi pour eux. Les prix des modèles vidéo sont ici [1], avec une large fourchette, mais Google Veo et OpenAI Sora sont globalement dans la même gamme de prix que les modèles chinois
[1] https://openrouter.ai/models?output_modalities=video
Ce qu’Anthropic a fait d’intéressant, c’est déployer sa stack sur plusieurs fournisseurs cloud. Ils l’ont d’abord mise sur AWS d’une manière qu’on voit rarement chez les grands fournisseurs IA jusqu’ici, donc je me demande s’ils iront ensuite sur GCP et Azure
Si une entreprise peut avoir sa propre stack Claude sur son propre cloud, comme une stack ELK, alors si cela devient possible aussi sur Azure et GCP, OpenAI aura vraiment du retard à rattraper
Personnellement, je préfère utiliser une IA qui tourne sur une infrastructure que je paie moi-même. En cas de panne, c’est isolé, et je peux aussi basculer vers une autre région ou un autre datacenter
Je reste également surpris que Microsoft ou Amazon ne mettent pas plus frontalement leurs propres modèles en avant dans leurs offres cloud. Microsoft a sans doute mis Phi quelque part, mais sans le pousser au premier plan. En particulier pour des produits comme Copilot for Devs, ils pourraient utiliser des calculs moins chers avec des modèles de type Phi, mais Microsoft devrait déjà commencer par renommer le produit pour clarifier ce que signifie réellement Copilot
Placer du calcul est un problème matériel, mais sortir de bons modèles demande plus que du calcul : il faut de bons ingénieurs IA. SpaceX, Amazon et d’autres sont peut-être excellents sur le matériel, sans être au même niveau sur l’ingénierie IA
https://azure.microsoft.com/en-us/blog/introducing-anthropic...
https://docs.cloud.google.com/gemini-enterprise-agent-platfo...
Claude est aussi disponible depuis longtemps sur AWS Bedrock
La nouvelle annonce autour de « Claude Platform » concerne une version exploitée par Anthropic sur AWS, et non l’exploitation directe via Bedrock. La différence est expliquée ici : https://platform.claude.com/docs/en/build-with-claude/claude...
Et la demande de pouvoir l’exécuter sur une infrastructure payée par soi-même, Claude y répond déjà depuis assez longtemps
L’une des raisons pour lesquelles OpenAI s’est éloigné de Microsoft était justement de pouvoir être proposé sur AWS. Ils estimaient qu’il y avait une vraie demande sur AWS, et le fait d’être cantonné à Azure les handicapait