Comment OpenAI va-t-il rivaliser ?
(ben-evans.com)- OpenAI a acquis une très large base d’utilisateurs sans avantage technologique propriétaire, mais l’engagement et la rétention restent faibles, dans une structure dépourvue d’effets de réseau
- Aujourd’hui, plus de 6 organisations ont lancé des modèles de frontière de niveau comparable, se dépassant mutuellement à quelques semaines d’intervalle, sans qu’aucune n’ait établi un avantage structurel impossible à rattraper
- Google et Meta exploitent l’avantage de leurs produits existants et de leurs canaux de distribution pour gagner rapidement des parts de marché, tandis que l’avance initiale de ChatGPT dans un produit peu différencié est difficile à maintenir
- OpenAI propose une stratégie de plateforme full stack, des puces et de l’infrastructure jusqu’aux applications grand public, mais sans effets de réseau ni verrouillage d’écosystème comparables à Windows ou iOS
- Le véritable enjeu stratégique est de savoir qui créera les expériences IA et cas d’usage de nouvelle génération qui n’existent pas encore, dans un contexte où personne ne peut tout inventer seul
- En fin de compte, la compétitivité d’OpenAI dépend de sa capacité d’exécution continue et de sa vitesse d’adaptation au marché, ce qui ressemble moins à une stratégie qu’à une compétition d’exécution au quotidien
Les quatre défis fondamentaux d’OpenAI
- 1. OpenAI ne dispose ni d’un avantage technologique ni d’un avantage produit propriétaire ; sa base d’utilisateurs est vaste mais l’engagement, la rétention et les effets de réseau sont faibles
- Les modèles eux-mêmes sont d’un niveau similaire à ceux des concurrents, et les produits grand public manquent de product-market fit
- 2. La structure de captation de valeur et l’expérience produit sur le marché de l’IA évoluent rapidement. Les acteurs établis comme des milliers de fondateurs créent de nouvelles fonctionnalités, expériences et business models, avec le risque que les foundation models deviennent une infrastructure générique à faible marge
- 3. OpenAI et Anthropic doivent entrer dans une industrie capitalistique sans base de distribution ni flux de trésorerie issus de produits existants (Cross the Chasm)
- Les entreprises disposant déjà de produits doivent elles aussi se cannibaliser, mais l’époque où l’on disait que Google ne savait pas faire d’IA est depuis longtemps révolue
- 4. En raison d’une structure organisationnelle centrée sur la recherche, le contrôle de la feuille de route produit et de la stratégie reste limité. On ouvre ses e-mails le matin, le labo a résolu quelque chose, et le travail consiste ensuite à en faire un bouton
> « Jakub et Mark ont défini l’orientation de recherche à long terme. Puis, après plusieurs mois de travail, des résultats étonnants sont arrivés, et un chercheur m’a contactée pour me dire : “J’ai découvert quelque chose de vraiment génial. Comment allez-vous l’utiliser dans le chat ? Comment allez-vous l’appliquer à nos produits d’entreprise ?” »
> Fidji Simo, responsable produit d’OpenAI (2026)
> « Il faut partir de l’expérience client puis remonter vers la technologie. Il ne faut pas partir de la technologie puis se demander à qui on va la vendre. »
> Steve Jobs (1997)
- OpenAI dispose d’une technologie remarquable et de talents ambitieux, mais contrairement à Google dans les années 2000 ou Apple dans les années 2010, l’entreprise ne possède pas quelque chose qui fonctionne clairement et que personne d’autre ne peut faire
- Les activités récentes de Sam Altman peuvent être interprétées comme une tentative d’échanger une valeur surtout inscrite sur le papier contre une position stratégique plus durable avant que la musique ne s’arrête
Compétitivité des modèles : l’absence d’avantage technologique propriétaire fragilise la durabilité du leadership
- Environ plus de 6 organisations publient aujourd’hui des modèles de frontière presque équivalents, se dépassant les unes les autres à quelques semaines d’intervalle
- Les benchmarks diffèrent, mais dessinent globalement la même image
- Meta est actuellement sortie de la courbe, Apple·Amazon·Microsoft n’ont pas encore atteint la frontière, et la Chine accuse environ 6 mois de retard tout en dépendant fortement des recherches d’autrui
- L’effet de réseau auto-renforçant des parts de marché, visible avec Windows, la recherche Google, iOS ou Instagram, n’existe pas aujourd’hui dans la compétition entre modèles
- Une percée comme le continuous learning pourrait rendre possibles des effets de réseau, mais ce n’est pas quelque chose sur lequel on peut planifier à ce stade
- Un accès propriétaire aux données pourrait aussi créer de véritables effets d’échelle, mais on ne sait pas encore à quoi ressembleraient ces effets dans les données utilisateurs ou verticales (SAP, Salesforce, feuilles de calcul de banques d’investissement, etc.), et les grandes plateformes existantes disposent déjà de beaucoup de données
Base d’utilisateurs : large mais peu profonde, avec des habitudes d’usage encore faibles
- OpenAI compte 800 à 900 millions d’utilisateurs, mais il s’agit d’« utilisateurs actifs hebdomadaires » ; le fait de publier un chiffre de WAU et non de DAU mérite l’attention
- Le choix de mettre en avant une métrique hebdomadaire suggère que la majorité des utilisateurs n’en a pas fait une habitude quotidienne, donc que l’engagement / la stickiness reste faible
- Parmi les utilisateurs de ChatGPT, seuls environ 5 % sont abonnés payants
- Même chez les adolescents américains, la proportion de ceux qui l’utilisent quelques fois par semaine ou moins est bien plus élevée que celle de ceux qui l’utilisent plusieurs fois par jour
- Selon les données promotionnelles « 2025 Wrapped », 80 % des utilisateurs ont envoyé moins de 1 000 messages en 2025, soit en moyenne moins de 3 prompts par jour
- La plupart des utilisateurs ne perçoivent pas les différences de personnalité ou d’accent entre les modèles, et des fonctions destinées à renforcer la rétention comme la « mémoire » ne créent pas d’effets de réseau réels, seulement de l’adhérence
- L’entreprise parle de « transformer la manière d’utiliser l’informatique », mais un usage de quelques fois par semaine suffit difficilement à dire que cela a changé la vie
- OpenAI reconnaît elle-même l’existence d’un « capability gap » entre les capacités du modèle et l’usage réel, ce qui revient indirectement à dire qu’il n’existe pas encore de product-market fit clair
Stratégie publicitaire et tentative d’approfondissement de l’engagement
- Le projet publicitaire d’OpenAI vise à couvrir, côté coûts, le service fourni à plus de 90 % d’utilisateurs gratuits, ainsi qu’à prendre de l’avance et à apprendre auprès des annonceurs
- D’un point de vue stratégique, il s’agit aussi de fournir aux utilisateurs gratuits les modèles les plus récents et les plus puissants (donc les plus coûteux) afin d’approfondir l’engagement
- Fidji Simo a déclaré que « la diffusion et l’échelle sont ce qui compte le plus »
- Mais rien ne garantit qu’offrir un meilleur modèle augmentera l’engagement des utilisateurs qui, aujourd’hui, ne savent même pas quoi faire avec ChatGPT
- Il est tout aussi possible que les utilisateurs soient bloqués par le blank screen problem, ou que le format même du chatbot ne soit pas adapté à ces cas d’usage
Montée de Gemini et Meta AI, et parallèle avec Netscape : des chatbots peu différenciés
- Dans les produits peu différenciés, l’avantage de l’adoption initiale tient rarement dans la durée, et la concurrence tend à se déplacer vers la marque et les canaux de distribution
- La progression rapide de Gemini et Meta AI en parts de marché le montre bien : pour le grand public, les produits paraissent presque identiques
- Dans la communauté technique, Llama 4 a été considéré comme un échec, mais les chiffres de Meta semblent malgré tout corrects
- Claude d’Anthropic est en haut des benchmarks, mais n’a ni stratégie ni produit grand public, et sa notoriété côté consommateurs est presque nulle
- Claude Cowork exige carrément l’installation de Git
- Certains comparent ChatGPT à Netscape : Microsoft était entré sur un marché où il était difficile de différencier le produit, mais avec une immense puissance de distribution
- La difficulté de différencier les navigateurs web et celle de différencier les chatbots relèvent du même problème structurel : dans les deux cas, ce ne sont guère plus qu’une zone de saisie et une zone de sortie
- La dernière grande innovation produit réussie dans le navigateur a été les onglets et la fusion de la barre de recherche avec la barre d’URL
- Microsoft a fini par dominer le marché des navigateurs, mais cela n’a finalement pas eu tant d’importance : la vraie captation de valeur se fait ailleurs
- L’application ChatGPT n’est qu’un “thin wrapper”, et l’ajout de fonctionnalités ne suffit pas à créer une vraie différenciation
- L’innovation dans l’expérience utilisateur est la clé de l’étape suivante, mais on ne sait pas qui la mènera. Rien ne dit pourquoi ce devrait être OpenAI
- Alors que tous les fondateurs de la Silicon Valley essaient d’inventer la « phase 2 de l’expérience IA générative », la question devient : « Peut-on décider à l’avance que ce sera moi ? »
La stratégie de plateforme d’OpenAI et ses limites
- L’an dernier, la réponse d’OpenAI a ressemblé à « tout, en même temps, tout de suite » : plateforme d’apps, navigateur, app vidéo sociale, collaboration avec Jony Ive, recherche médicale, publicité, annonces de capex de plusieurs milliers de milliards de dollars, etc.
- Il y a eu une tendance à reproduire la forme de plateformes autrefois victorieuses sans en comprendre le fonctionnement : « une plateforme a un app store, donc il nous faut aussi un app store »
- Sam Altman a présenté sa stratégie globale via un diagramme à la fin de l’an dernier, en reprenant une citation célèbre de Bill Gates : « la définition d’une plateforme, c’est qu’elle crée plus de valeur pour ses partenaires que pour elle-même »
- La structure stratégique consiste à bâtir une entreprise de plateforme full stack, empilée depuis les puces et l’infrastructure, où chaque couche renforce les autres, avec cloud, puces et modèles réunis dans une même offre pour obtenir écosystème et effets de réseau
- Mais c’est ainsi que Windows ou iOS fonctionnaient, et OpenAI ne dispose pas aujourd’hui de ces dynamiques de plateforme et d’écosystème
- Même le diagramme reliant capex et chiffre d’affaires présenté par le CFO ne constitue pas un véritable flywheel
La course au capex : la condition pour avoir une place à table
- Les quatre grands acteurs du cloud ont dépensé environ 400 milliards de dollars dans l’infrastructure l’an dernier, et prévoient au moins 650 milliards cette année
- OpenAI a évoqué pour l’avenir une promesse de 1 400 milliards de dollars et de 30 gigawatts de calcul, sans calendrier précis, tandis que l’usage réel fin 2025 n’était que de 1,9 gigawatt
- Faute de flux de trésorerie massifs issus d’activités existantes, l’entreprise finance cela par levées de fonds (dont une partie n’est pas encore finalisée) et via le bilan d’autres entreprises, avec une part de « circular revenue »
- À long terme, les coûts de l’infrastructure IA pourraient évoluer vers une structure proche de la construction aéronautique ou de la fabrication des semi-conducteurs : pas d’effets de réseau, mais des générations toujours plus difficiles et plus coûteuses, si bien que seules quelques entreprises peuvent continuer à investir, dans une forme d’oligopole
- D’où l’analogie entre la Moore’s Law (doublement du nombre de transistors tous les deux ans) et la Rock’s Law (doublement du coût des fabs de pointe tous les quatre ans)
- Quand Sam Altman laisse entendre un capex annuel de 1 000 milliards de dollars, il cherche à produire une prophétie autoréalisatrice : une entreprise qui n’avait aucun revenu il y a trois ans tente de s’asseoir à la table par la seule force de volonté
- Mais avoir une place à table donne-t-il un avantage au-delà de cela ? Rien n’est moins sûr : TSMC détient un quasi-monopole sur les puces de pointe, sans pour autant capter beaucoup de levier ni de valeur dans les couches supérieures de la stack
API, standards et effets de réseau : possibilités et limites
- Même lorsque des développeurs construisent des produits sur un foundation model donné, les utilisateurs ne savent pas quel modèle est utilisé et s’en soucient peu
- Exploiter un cloud ne donne pas de levier sur les produits et services tiers situés plus haut dans la stack
- Une nouveauté existe toutefois : l’émergence d’une soupe d’acronymes de standards et de protocoles permettant aux modèles et aux sites web de communiquer entre eux (la vague OpenClaw en reflète une partie)
- Un site web peut exposer ses propres fonctions pour que ChatGPT affiche directement une recherche immobilière ou un panier
- On peut demander à un agent de voir une recette sur Instagram puis de commander les ingrédients sur Instacart
- OpenAI propose que le compte ChatGPT serve de colle reliant tout cela, en laissant entendre que cela pourrait devenir un effet de réseau
- Mais il y a le problème du « widget fallacy » : cette erreur récurrente qui consiste à croire qu’un produit complexe peut être abstrait derrière une interface standard simple
- C’est la même idée qu’il y a dix ans avec « API is the new BD », et cela a le plus souvent échoué
- Il existe un grand écart entre ce qui paraît convaincant en démo et le modèle d’interaction réel dans les workflows
- Aucune entreprise ne veut devenir un simple appel API d’une autre : il existe une tension fondamentale entre la distribution et le contrôle de la relation client
- Si ces systèmes sont reliés via des API abstraites, on ne voit pas clairement pourquoi utilisateurs ou développeurs se retrouveraient captifs d’un seul acteur
- Même si OpenAI et Gemini utilisent des standards différents, rien n’empêche en principe les développeurs de prendre en charge les deux, avec bien moins de code que pour développer à la fois sur iOS et Android
- On peut aussi se demander s’il est vraiment logique de se connecter à Tinder, Zillow et Workday avec un même compte
La vraie question : l’absence de « pouvoir »
- Les termes plateforme, écosystème, levier, effets de réseau, etc., sont omniprésents dans l’industrie tech, mais leur signification réelle reste floue
- Le concept central est celui de « pouvoir » : la capacité à faire utiliser un système donné même lorsque l’utilisateur ne le souhaite pas vraiment
- Microsoft, Apple, Facebook et Amazon possèdent ce type de pouvoir
- Ce qu’une plateforme réussie accomplit réellement, c’est mobiliser l’énergie créative de toute l’industrie technologique pour construire à grande échelle sans devoir tout inventer elle-même, tout en faisant en sorte que tout se déroule sur son propre système
- Les foundation models ont bien un effet multiplicateur, mais si les concurrents peuvent proposer la même chose, il n’existe aucune raison pour que tout le monde doive utiliser celui d’une entreprise en particulier
- S’il n’existe aucune raison structurelle permettant de rester meilleur quoi que dépensent et fassent les concurrents, alors il ne reste que l’exécution au quotidien
- L’excellence d’exécution peut être une ambition, et certaines entreprises l’ont maintenue très longtemps, mais ce n’est pas une stratégie
Conclusion
- OpenAI se trouve dans une situation sans avantage monopolistique clair sur les plans technologique, produit ou écosystème
- Malgré une énorme base d’utilisateurs et une grande puissance financière, la construction d’un avantage concurrentiel durable reste inachevée
- L’absence d’effets de réseau de plateforme, les limites de la différenciation produit et les incertitudes sur les investissements d’infrastructure constituent les principaux risques
- Au final, la compétitivité d’OpenAI dépend de son exécution quotidienne et de sa rapidité d’adaptation au marché
Notes
- Comparaison avec les stratégies de l’ère du ZIRP, où l’on utilisait « le capital comme arme » : en période de taux bas, des entreprises ont cherché à acquérir de l’échelle grâce à un capital bon marché puis à se défendre via des effets de réseau ; cela a fonctionné pour Uber, mais a échoué pour WeWork, qui n’avait pas d’effets de réseau — OpenAI présente une similitude sur ce point
- Un résultat totalement différent reste possible : des modèles de tailles et de formes variées pourraient exister en masse, certains tournant gratuitement à la périphérie, au point que l’oligopole de l’infrastructure IA devienne aussi peu significatif que celui de l’infrastructure SQL
- Microsoft, Google, Apple et Meta n’ont jamais considéré avoir définitivement gagné, même dans des contextes de winner-takes-all, et regardent toujours derrière eux
- Le « Only the paranoid survive » d’Andy Grove symbolise cette psychologie
- Intel a possédé à la fois des effets de réseau et un avantage technologique, puis a fini par perdre les deux
1 commentaires
Réactions sur Hacker News
Les gens sous-estiment la rétention (stickiness) d’OpenAI
Avoir près d’un milliard d’utilisateurs constitue une vraie barrière à l’entrée
Même ma femme utilise ChatGPT tous les jours sans ressentir le besoin d’essayer autre chose
L’historique des conversations rend le changement difficile, et une monétisation par la publicité semble être un choix naturel
Sur le marché grand public, OpenAI est dans une position plus favorable que les autres concurrents
Il n’y a presque pas d’effet réseau ni d’effet d’apprentissage de l’interface, et un simple historique de conversation suffit mal à justifier cette valeur
En plus, comme les fonctions d’IA seront bientôt intégrées par défaut dans la plupart des appareils et applications, cela risque au bout du compte de devenir une commodité au niveau de l’API back-end
Les utilisateurs gratuits partiront probablement vers un autre service gratuit dès qu’il y aura trop de publicité
D’ailleurs, ma compagne est passée sur DeepSeek lors d’une panne récente et n’est jamais revenue
Un article de The Register dit la même chose
Google pourrait au contraire être mieux placé — si ses données personnelles comme les e-mails, les photos ou l’historique de localisation sont intégrées à l’IA, une personnalisation bien plus puissante devient possible
Côté entreprise aussi, l’intégration avec Google Docs et GCP est naturelle
À long terme, on peut même imaginer un modèle où « l’IA + quelques ingénieurs Google » remplace une équipe entière
En essayant de viser trop de cibles à la fois, l’entreprise risque de se retrouver dans une position « moyennement adaptée à tout le monde »
Le fait de ne pas posséder directement son infrastructure est aussi un facteur d’inquiétude
Si la mode change, OpenAI peut se faire dépasser par Grok ou Perplexity
Article lié : MIT Technology Review
Je me demande combien de temps il faudra avant que les modèles locaux couvrent la majorité des cas d’usage
Dans cinq ans, l’OpenAI d’aujourd’hui ressemblera peut-être aux systèmes VAX des années 1970
Au final, pour que les LLM locaux deviennent vraiment assez bons, il faudrait un accès autorisé à l’API de Google
Vu le rythme de croissance de la VRAM des GPU grand public, il semble peu probable de pouvoir faire tourner de bons modèles locaux avant 2035
Des modèles plus rapides, c’est bien, mais il faudra toujours des puces coûteuses, et leur arrivée dans des produits grand public prendra encore du temps
Les datacenters étant bien plus efficaces que les serveurs à domicile, les modèles locaux risquent de rester un choix de niche
Je préfère les services de chat IA centrés sur la confidentialité
J’ai comparé Lumo+ de Proton et Duck.ai de DuckDuckGo, puis j’ai choisi Lumo+
L’historique des conversations est intégré aux données Proton et accessible sur tous les appareils
Pour le travail technique, j’utilise Gemini Plus ou Anthropic, mais pour les échanges personnels, j’utilise une IA privée
Dans des situations sensibles comme les problèmes de santé dans la famille, la protection de la vie privée devrait être la norme
Les risques pour la vie privée sont surtout théoriques ; dans la pratique, l’utilité est bien plus grande
Pour les tâches sensibles, j’utilise Kimi-k2 sur Tinfoil
Ce n’est pas très différent de BigLabs, mais des services comme privatemode.ai ou confer.to visent aussi une confidentialité au niveau d’Apple AI
Je pense que c’est l’article qui analyse le mieux la défensibilité économique d’OpenAI
OpenAI semble suivre une stratégie visant à amener le marché à le considérer comme « impossible à faire tomber »
Le fait que la concurrence dans l’IA glisse vers une rivalité politique entre États semble aussi faire partie de cette stratégie
Le scepticisme du grand public envers l’IA reste important, et même en cas d’échec, l’impact social ne serait pas si grand
Google Gemini est le meilleur en matière d’intégration (Android, WearOS, Google Home, reconnaissance vocale, etc.)
Anthropic Claude se distingue par sa forte intégration pour le code
Meta conserve une présence grâce à l’open source, mais ne domine pas le marché
L’UX front-end est meilleure chez Claude, mais Codex offre le meilleur rapport qualité-prix
Comme la communauté open source peut accéder à cette structure, la différenciation de ClaudeCode reste limitée
Depuis qu’OpenAI a affiché le message publicitaire « la mémoire est presque pleine », j’utilise plusieurs IA en parallèle
Je répartis mon usage entre Grok, Alexa+, Gemini Plus, Copilot, Claude Code, Opencode, etc.
J’aime le fait de ne dépendre d’aucune d’entre elles
Si besoin, je peux passer à un autre service à tout moment
Les opportunités de vertical integration sont sous-estimées
Comme Anthropic, qui disait ne pas vouloir créer son propre IDE avant de changer de direction avec Claude Code, il existe un fort potentiel d’extension dans chaque secteur (droit, santé, etc.)
Les modèles open source ont 6 à 12 mois de retard, donc l’écart peut se creuser
Rien que pour la génération de code, on atteindra déjà sans doute un niveau largement utilisable
Si l’AGI se concrétise, toutes les entreprises fondées sur la connaissance pourraient perdre leur sens
Il sera probablement difficile pour de nouvelles entreprises d’IA d’y entrer facilement
Si un produit comme « Claude for Accountants » coûte plus cher que Claude classique, ce sera difficile à justifier
Si le développement de l’IA continue, la philosophie centrée utilisateur à la Steve Jobs pourrait ne pas correspondre à la direction prise par l’IA
ChatGPT n’a pas été conçu pour résoudre un problème utilisateur précis, c’était plutôt un produit devenu commercialement viable par accident
Apple ne semble toujours pas savoir comment aborder l’IA, mais devrait apprendre des approches centrées sur l’outil comme Anthropic ou OpenClaw
OpenAI a aussi des choses à apprendre, mais n’est pas dans une position aussi favorable qu’Apple ou Google
Au final, le marché de l’IA évoluera vers un écosystème beaucoup plus diversifié
En tant qu’anglophone natif en visite au Costa Rica, j’ai souvent vu des habitants utiliser ChatGPT pour traduire quand il y avait une barrière linguistique
La plupart de ces articles catastrophistes sur la fin de l’IA parlent surtout du point de vue de la valorisation des entreprises
Mais du point de vue de l’humanité, ils sont au contraire plutôt optimistes
Dans cette génération de l’informatique, il se pourrait qu’aucune entreprise particulière n’ait le pouvoir de pousser les gens dans une direction qu’ils ne veulent pas prendre
Et c’est une bonne chose