- L’essor de l’IA fondée sur les LLM et des workflows d’agents démantèle en profondeur la logique économique du SaaS, tandis que la chute rapide du coût de l’intelligence recompose les flux de valeur du marché des technologies d’entreprise
- Un avantage de coût dans les services IA ne suffit pas à construire un moat durable, et les startups qui dépendent d’une infrastructure LLM se heurtent au problème du répartiteur de taxis — une structure assise sur une marge empruntée
- Selon le paradoxe de Jevons, les dépenses totales en IA vont exploser, mais cette valeur ne reviendra pas à tous les acteurs existants, et s’accompagnera d’une recomposition massive de la chaîne de valeur
- Dans la Vertical AI, les entreprises gagnantes ne seront pas des prestataires externes, mais celles qui bâtissent des systèmes profondément intégrés dans les opérations de leurs clients — la gravité des données, les effets de réseau et le verrouillage de plateforme sont essentiels
- Utiliser une stratégie low cost comme wedge intentionnel pour prendre position sur le marché, puis évoluer vers une plateforme d’intelligence composite, est la seule stratégie véritablement durable
Changement structurel : du SaaS à l’ère des agents IA
- Le marché des technologies d’entreprise traverse une transformation structurelle comparable au passage de l’on-premise au cloud
- Pendant près de 20 ans, le modèle SaaS a créé des milliers de milliards de dollars de capitalisation boursière en s’appuyant sur les revenus récurrents, la licence par siège et l’engagement utilisateur comme indicateur indirect de valeur
- L’essor de l’IA fondée sur les LLM et des workflows d’agents est en train de démanteler cette logique économique du SaaS
- Le moteur principal est la chute rapide du coût de l’intelligence — à niveau d’intelligence équivalent, le coût diminue rapidement
- Cela dit, avec l’augmentation de la complexité de raisonnement, la dépense totale en tokens continue d’augmenter (même si le prix unitaire du token baisse)
- La concurrence féroce entre laboratoires bien financés comme OpenAI, Google et Anthropic, ainsi que les gains d’efficacité matériel et logiciel, laissent penser que cette tendance ne ralentira pas
La pression déflationniste sur les services IA
- Quand des agents remplacent des services manuels traditionnels, ils ne captent pas simplement cette dépense telle quelle : il se produit une commoditisation du service
- Un service payé 100 000 dollars il y a quelques années finira par ne plus valoir qu’une fraction de cette somme
- L’IA bon marché crée une pression déflationniste durable sur les produits de Vertical AI
- Des fonctions comme l’extraction de données depuis des documents, la gestion des appels entrants ou la rédaction d’ébauches de rapports de conformité peuvent aujourd’hui constituer d’excellents wedges parce que l’infrastructure et le savoir-faire restent rares et l’adoption encore faible, mais elles deviendront bientôt des table stakes
- Dans chaque catégorie, plusieurs startups bien financées et en croissance sont présentes, si bien que les surmarges finiront par être éliminées par la concurrence
- À ce moment-là, les startups qui n’auront pas construit de moat seront éliminées
Services IA vs logiciels : le paradigme de la fourniture de service
- Quand le coût marginal de l’intelligence tend vers zéro, la proposition de valeur centrale des technologies d’entreprise se déplace des outils d’assistance au travail vers la livraison de résultats remplaçant le travail humain
- La Vertical AI peut prendre en charge des workflows end-to-end bien plus larges que le seul Vertical SaaS, ce qui augmente fortement la valeur client et la propension à payer, et permet d’accéder à des budgets bien plus importants
- En revanche, l’idée dominante actuelle selon laquelle la fourniture de service — c’est-à-dire une relation client similaire à celle d’un prestataire externe plutôt qu’à celle d’une plateforme interne — serait le paradigme dominant du logiciel IA n’emporte pas l’adhésion
Un TAM en expansion ne fera pas flotter toutes les startups
- La chute brutale du coût de l’intelligence accroît fortement le TAM des services IA, mais cette expansion d’opportunité ne bénéficie pas nécessairement au même point de la chaîne de valeur
- Cas des tableurs et de la comptabilité : après l’arrivée de Microsoft Excel (1987), le nombre de teneurs de livres et de commis comptables est passé d’environ 2 millions à 1,5 million, tandis que les comptables et auditeurs sont passés d’environ 1,3 million à 1,5 million, et les analystes de gestion et responsables financiers d’environ 600 000 à 1,5 million (d’après une recherche de Morgan Stanley)
- Les tableurs n’ont pas simplement automatisé la tenue des comptes ; ils ont déplacé la valeur vers le haut de la courbe des compétences — du travail répétitif vers l’analyse de plus haut niveau
- Cas d’Uber et du ride-hailing : au-delà d’une redistribution dans la chaîne de valeur, on a vu la suppression complète d’une couche intermédiaire
- Le marché mondial du taxi est passé d’environ 69 milliards de dollars en 2019 à environ 271 milliards de dollars en 2024 ; avant Uber, le marché traditionnel du taxi représentait environ 30 à 50 milliards de dollars
- La dépense totale pour « appeler une voiture pour aller quelque part » a été multipliée par environ 5 à 8 en 15 ans, tandis que le prix par course a été divisé par deux environ (avec un rebond de 10 à 20 % après l’ère des subventions VC)
- Historiquement, les revenus revenaient aux propriétaires (propriétaires-opérateurs, détenteurs de médaillons à NYC, etc.), aux intermédiaires (agences de taxi, répartiteurs, garages) et aux chauffeurs salariés
- La plupart de ces parties prenantes ont été disloquées, et les revenus des agences ont été absorbés par Uber et Lyft
- Le prix des médaillons à NYC est passé d’un pic d’environ 1 million de dollars en 2013 à moins de 100 000 dollars aujourd’hui (avec quelques signes de reprise dus à l’intervention publique)
Paradoxe de Jevons et IA d’entreprise
- Le même paradoxe de Jevons est à l’œuvre aujourd’hui dans l’IA d’entreprise
- À qualité de modèle, contexte et complexité de raisonnement constants, le coût par unité d’intelligence s’effondre
- Le coût d’un raisonnement au niveau de GPT-3.5 a chuté de plus de 280 fois entre novembre 2022 et octobre 2024
- En 2023, faire lire et classer par un LLM tous les e-mails entrants d’une entreprise de taille intermédiaire coûtait cher ; aujourd’hui, à environ 0,40 $ par million de tokens, le coût est négligeable
- Avec les outils de code IA, 41 % du code est aujourd’hui généré ou assisté par l’IA — ce qui réduit encore les barrières à l’entrée
- Les dépenses totales en IA explosent : les revenus de l’IA d’entreprise passent de 1,7 milliard de dollars en 2023 à 37 milliards en 2025, soit une multiplication par 22 en deux ans
- Les dépenses mondiales en IA devraient dépasser 2 500 milliards de dollars en 2026 (IDC)
- Gartner a avancé de deux ans sa prévision du moment où l’IA représentera un tiers de la dépense IT totale
- La vraie question n’est pas de savoir si le gâteau grossit, mais qui pourra en profiter
Le problème du répartiteur de taxis
- Une thèse populaire soutient que les AI Services (« Service-as-Software ») constituent le business model gagnant
- Foundation Capital présente cela comme une opportunité de 4 600 milliards de dollars : les budgets IT représentent 1 à 2 % du PIB, tandis que le travail et les services traditionnels en représentent plus de 15 %
- L’argument est que si l’IA accomplit le travail de comptables, assistants juridiques ou analystes conformité, il devient possible de tarifer en référence au coût complet (fully-loaded cost) de ces employés
- Mais le simple fait de fournir un produit analogique ne permet pas de capter durablement ces budgets
- Les services sont par nature commoditisables
- La plupart des startups qui croissent en distribuant des alternatives IA ne possèdent pas la propriété intellectuelle (les LLM) qui rend cet arbitrage économique possible — ce sont les laboratoires qui la possèdent
- L’orchestration basique de workflows, le RAG et le fine-tuning spécialisé métier ne constituent pas un moat durable
- Application du problème du répartiteur de taxis à l’IA : avant Uber, les agences de répartition de taxis captaient des marges grâce au matching des courses — avec une certaine capacité de défense liée à l’agrégation de l’offre (densité locale de chauffeurs) et de la demande (notoriété locale)
- Lorsqu’une plateforme est apparue, capable de faire correspondre l’offre et la demande plus efficacement, d’externaliser la propriété des véhicules, d’élargir massivement l’offre et de proposer un coût plus bas aux utilisateurs, l’avantage compétitif des répartiteurs a disparu
- Si les répartiteurs ont perdu, ce n’est pas à cause du take rate d’Uber
- Uber prélève en moyenne environ 30 % des revenus des chauffeurs, ce qui n’est pas très différent des 30 à 50 % extraits collectivement par les agences de taxi traditionnelles, les bailleurs de médaillons et les répartiteurs
- Le moat d’Uber ne venait pas d’une extraction moindre, mais du fait d’avoir intégré toutes les fonctions d’intermédiation — répartition, paiement, matching, réputation — dans une plateforme unique propriétaire du réseau
- Si la valeur principale d’une entreprise d’AI Services est « nous fournissons ce service moins cher grâce à un LLM », alors elle ressemble à un répartiteur assis sur une marge qui ne lui appartient pas
- Cette courbe de coûts est contrôlée par les laboratoires de modèles, les hyperscalers, les fabricants de puces et les producteurs d’énergie
- Si les modèles deviennent moins chers, ou si un concurrent se branche sur la même API de modèle pour casser les prix, l’avantage de coût tend vers zéro
- Il existe aujourd’hui environ 35 000 applications wrapper IA dans le monde, avec une intensité concurrentielle bien plus forte que dans les cycles technologiques précédents
- La capacité à fournir un service à moindre coût et la capacité à conserver cette marge sont deux choses distinctes — la question centrale aujourd’hui est de savoir qui captera durablement le surplus consommateur créé par l’effondrement du coût de l’intelligence
Intégration profonde (Embeddedness) et défendabilité
- Ce sont les entreprises qui construisent une défendabilité au-delà de la courbe de coûts qui captent et conservent ce surplus
- Sources historiques de défendabilité dans la tech d’entreprise : expertise métier, vitesse et qualité d’exécution, partenariats et relations d’intégration, gravité des données, marque et confiance, verrouillage de plateforme
- Au stade initial, les principaux avantages sont l’expertise métier et la vitesse d’exécution, qui s’érodent vite
- Les partenariats et relations d’intégration sont durables, mais deviennent moins déterminants à grande échelle
- Le moat le plus important en phase de croissance est celui des boucles d’usage et de données
- Une entreprise de Vertical AI défendable à l’échelle a besoin d’au moins un moat parmi la gravité des données, la marque et la confiance, ou le verrouillage de plateforme
- L’axe le plus important pour évaluer une entreprise de Vertical AI n’est pas « service vs logiciel », mais « interne (internal) vs externe (external) »
- « Interne » ne désigne pas nécessairement une UI SaaS traditionnelle à laquelle le client se connecte tous les jours — l’ancien consensus du secteur selon lequel la valeur serait corrélée à l’usage direct au clavier n’est plus valable
- La question clé est la suivante : l’entreprise IA est-elle intégrée aux opérations du client d’une manière structurellement difficile à retirer ?
- Détient-elle des données propriétaires générées par le client ? Connecte-t-elle le client à des contreparties, fournisseurs ou à un écosystème dont la reconfiguration serait pénible ? Est-elle intégrée à des workflows adjacents au point que son retrait provoquerait des ruptures en chaîne ?
- « Externe » : semblable à un prestataire de services traditionnel — le client y fait appel quand il en a besoin, mais peut changer de fournisseur la semaine suivante si une meilleure offre apparaît
- Les solutions externes peuvent fournir une vraie valeur et croître vite lorsque l’écart de coût est important et l’adoption encore précoce, mais comme elles reposent sur une marge empruntée, elles sont exposées aux mêmes dynamiques concurrentielles que d’autres startups AI Services, des incumbents SaaS bien financés, voire les acheteurs eux-mêmes
Framework à quatre quadrants : matrice d’évaluation de la Vertical AI
- Le paysage de la Vertical AI peut être cartographié selon deux axes : interne vs externe (degré d’intégration du produit dans les opérations du client) et wedge vs plateforme (ampleur et profondeur du produit)
- Durable (en haut à droite) : plateformes IA internes — des System of Intelligence & Action avec une trajectoire claire vers des moats composites, évoluant d’un wedge initial vers une plateforme multi-produit. Abridge et EvenUp en sont des exemples
- Rare (en haut à gauche) : plateformes externes — ACV élevés de nature quasi-consulting, utilisant souvent en dogfooding leurs propres produits IA internes. Elles sont instables à cause de la forte concentration client et de l’intégration limitée
- Commodity Risk (en bas à gauche) : produits wedge externes — potentiel de croissance initiale extrême, mais risque existentiel car ils concurrencent avec une marge IA empruntée
- Precarious (en bas à droite) : wedges internes — fort potentiel de croissance initiale et possibilité d’évoluer vers une plateforme défendable, mais avec un risque de copie du wedge par des incumbents leaders de l’IA
- Deux trajectoires de transition sont particulièrement utiles : de l’externe vers l’interne (intégration plus profonde) et du wedge vers la plateforme (élargissement produit)
- Le passage du wedge à la plateforme est le modèle éprouvé pour construire un logiciel vertical durable
- Certaines startups démarrent avec un wedge AI Services externe et très scalable, puis tentent les deux transitions simultanément
Vertical AI : rempart contre la commoditisation
- La force de la Vertical AI vient du fait que les dynamiques propres à chaque industrie constituent un terreau fertile pour construire des solutions différenciées profondément intégrées chez les clients
- Si les meilleures entreprises de Vertical SaaS (Veeva, Procore, Toast, ServiceTitan, etc.) ont gagné, ce n’est pas parce qu’elles étaient moins chères, mais parce qu’elles sont devenues des systems of record reflétant plus précisément les besoins spécifiques de leurs utilisateurs
- On peut personnaliser Salesforce ou NetSuite à coups de millions de dollars de conseil, mais il n’y a aucune raison de le faire quand il existe déjà un système conçu dès l’origine pour votre usage
- Elles accumulent des données métier propriétaires et first-party (données d’essais cliniques, données de coûts de chantier, données de chiffre d’affaires de restaurants) si bien que le produit s’améliore à mesure qu’il est utilisé
- Elles relient des écosystèmes verticaux fragmentés et spécifiques (laboratoires pharmaceutiques et sites cliniques, donneurs d’ordre et sous-traitants, restaurants et réseaux de livraison) pour bâtir un moat d’effets de réseau
- Le wedge peut être un service livré à moindre coût, mais le moat est le système construit par-dessus ce wedge — exploiter cette position interne pour développer des données propriétaires, des effets de réseau, une plateforme multi-produit et un « cerveau » sectoriel, afin de devenir non pas un simple fournisseur mais une infrastructure dont on dépend
- Si cette étape n’est pas franchie et que l’on reste un prestataire IA externe en concurrence par les coûts, le destin sera celui des répartiteurs de taxis : regarder le marché croître de 500 % pendant que les marges convergent vers zéro
Les gagnants embrassent la commoditisation
- Lors d’une table ronde de Vertical Collective, un fondateur a formulé cette idée : « Beaucoup voient la course vers le bas comme quelque chose de négatif, mais nous, nous la voyons autrement — la vraie clé, c’est de créer une nouvelle valeur »
- Se battre uniquement sur le coût est fatal, mais comme wedge intentionnel pour obtenir le bon positionnement afin de construire les moats décrits plus haut, c’est extrêmement puissant
- Certaines startups de Vertical AI devraient embrasser délibérément et accélérer la guerre des prix liée à la commoditisation des AI Services
- Attirer un grand nombre de clients avec des prix si bas que les acteurs traditionnels ne peuvent pas suivre
- Cannibaliser leur propre opportunité de revenu « par résultat » par client, mais obtenir en échange une croissance rapide, la confiance de l’industrie et le droit de servir le client autrement
- Affaiblir la position des leaders de marché incapables de suivre, créer un vide concurrentiel et prendre la pole position pour l’expansion
- Cette stratégie est une variante de la stratégie « Nuking Pricing Power » : développer et soutenir une version low cost (ou gratuite) d’un complément afin d’accélérer son adoption et de détruire le pricing power de ce complément
- En plus simple : si un produit va être commoditisé, autant être celui qui le commoditise pour prendre le marché
Hypothèse de valeur (Value Hypothesis)
- Chaque changement de paradigme dans la tech d’entreprise s’accompagne d’une ruée vers les positions et d’une restructuration
- Le cloud computing a fait naître des milliers de startups SaaS entre 2005 et 2015, mais la plupart ont été absorbées, consolidées ou ont disparu, et seules quelques-unes sont devenues des plateformes durables définissant une catégorie
- On peut s’attendre au même schéma dans la Vertical AI, mais avec une opportunité de marché plus grande, une croissance plus rapide, des modèles de monétisation plus créatifs et une efficacité capitalistique initiale plus élevée — et, pour toutes ces raisons, un niveau de concurrence inédit
- Le piège des fondateurs d’AI Services est de prendre un wedge scalable pour un business défendable
- Les entreprises qui dureront sont celles qui profiteront de la fenêtre actuelle — grand écart de coûts, adoption encore précoce, lenteur des incumbents — pour s’intégrer si profondément aux opérations de leurs clients qu’un changement ne soit pas seulement inconfortable, mais structurellement douloureux
- Ce n’est pas une idée nouvelle, mais la redécouverte de l’idée la plus ancienne du logiciel d’entreprise
- Ce qui est nouveau est superficiel : les entreprises SaaS pouvaient s’intégrer à quelques workflows et capter les données via l’écran d’interaction utilisateur ; les plateformes nativement IA peuvent s’intégrer à tous les workflows, capter les données à chaque interaction, qu’un humain soit présent ou non, et construire une intelligence composite qui améliore le produit à mesure qu’elle agit
- L’opportunité de bâtir une « infrastructure porteuse (load-bearing infrastructure) » n’a jamais été aussi grande, tout comme la tentation de se contenter d’être « un fournisseur moins cher »
- L’« hypothèse de valeur » d’Andy Rachleff : l’hypothèse d’une startup sur le quoi, le pour qui et le comment est « presque toujours erronée » au premier essai — le fondateur doit découvrir non pas les gens qui disent être intéressés, mais les clients réellement désespérés d’avoir ce produit
- Les clients seront toujours intéressés par un service moins cher, mais ce qu’ils veulent vraiment — et ce pour quoi ils paient durablement — c’est un système qui comprend leur activité mieux qu’eux-mêmes, accumule du savoir institutionnel, les relie à leur écosystème et augmente sa valeur interne à chaque interaction
Références
- Si l’IA rend les travailleurs humains plus efficaces, le modèle SaaS à licence par siège popularisé par Salesforce n’est plus pertinent — plus le produit est bon, plus la dépense client diminue
- Si l’objectif des agents autonomes est de rédiger des contrats, résoudre des tickets de support client ou rapprocher des grands livres financiers sans intervention humaine significative, alors le « screen time » ne veut plus rien dire
- Dans ce nouveau paradigme, l’efficacité peut se définir par l’absence de screen time
- L’UI elle-même devient remplaçable : la « couche de décision » des données, actions et records reste importante, mais nous entrons dans un monde où aucun client n’aura la même UI
- Une interface générée automatiquement par la plateforme et propre à chaque utilisateur (« inception software »)
- Une approche par agents via MCP ou « Bring Your-Own UI » (BYOUI) via des apps personnalisées générées par un LLM
Aucun commentaire pour le moment.