- À l’ère du cloud, les plus grandes entreprises d’infrastructure ont grandi en reliant directement leur modèle de revenus à l’unité centrale de consommation de la plateforme (le compute) ; à l’ère de l’IA, cette unité est en train de basculer vers le token
- Snowflake, Datadog, Cloudflare et d’autres se sont positionnés directement sur le chemin d’exécution des workloads, mettant en place une structure où le chiffre d’affaires s’étend automatiquement à mesure que l’activité de compute augmente
- Docker a été une technologie clé du développement cloud native, mais n’a pas réussi à relier le modèle de revenus à la primitive de consommation du compute, laissant échapper une valeur de plusieurs milliards de dollars
- À l’ère de l’IA, des entreprises comme Cursor (agent de codage), directement positionnées sur le chemin de consommation des tokens, connaissent une croissance rapide ; Cursor a récemment dépassé 2 milliards de dollars d’ARR
- Être simplement sur le chemin des tokens ne suffit pas ; comme l’illustre la faillite de l’entreprise CDN Limelight (aujourd’hui Edgio), sans différenciation ni coûts de changement, la survie est impossible
Le schéma clé de l’ère du cloud : monétiser la primitive de consommation
- La primitive centrale de l’ère du cloud était le compute ; le stockage, le réseau et les bases de données étaient tous importants, mais le moteur qui faisait tourner le système était le cycle de compute dans le datacenter
- Les plus grandes entreprises d’infrastructure ont soit lié directement leurs revenus à l’activité de compute, soit facturé le compute lui-même, en « possédant le compteur »
- AWS et les hyperscalers sont littéralement des entreprises qui vendent du temps de compute ; plus les workloads migrent vers le cloud, plus les revenus augmentent automatiquement
- Ce schéma ne s’est pas limité aux hyperscalers : les leaders de l’infrastructure du buildout cloud ont appliqué la même logique
Les modèles de monétisation des leaders de l’infrastructure cloud
- Databricks monétise le compute des jobs ; chaque exécution de pipeline de données, entraînement de modèle ou traitement de workload fait croître automatiquement les revenus
- Snowflake monétise le compute des requêtes ; l’ajout de nouvelles requêtes, de nouveaux jeux de données ou de nouveaux workloads augmente les revenus sans qu’il soit nécessaire de vendre davantage de sièges
- Datadog monétise la télémétrie générée par les workloads de compute ; chaque nouveau microservice, conteneur ou instance cloud crée un revenu incrémental
- Cloudflare monétise les requêtes (requests) générées par les applications exécutées sur le compute
- MongoDB facture, via Atlas, en fonction du stockage et du compute consommés
- Les détails diffèrent, mais le schéma reste constant : être directement positionné sur le chemin d’exécution des workloads avec un modèle tarifaire qui se scale automatiquement avec l’augmentation de l’activité de compute
Insight clé : non pas le pricing à l’usage en soi, mais le couplage structurel avec l’unité de croissance de l’écosystème
- Le cœur du sujet n’est pas simplement le « pricing à l’usage » — beaucoup d’entreprises appliquent un pricing à la consommation tout en croissant lentement
- Ce qui les a rendues spéciales, c’est que leur unité de consommation était identique à l’unité même selon laquelle tout l’écosystème se scale
- Quand le monde exécute davantage de compute, ces entreprises croissent sans rien faire — leurs revenus sont structurellement couplés au vecteur de croissance de la plateforme
- Aux débuts du cloud, de nombreuses entreprises d’infrastructure essayaient encore de monétiser leur logiciel avec des modèles anciens comme les licences perpétuelles, les licences à durée limitée, les contrats de maintenance ou les abonnements de support sur de l’open source
- Dans les environnements on-premise, où la croissance de l’infrastructure était lente, prévisible et contrôlable, ces modèles fonctionnaient ; mais dans le cloud, les workloads peuvent se déployer instantanément et la consommation de compute augmenter de plusieurs ordres de grandeur, ce qui a fondamentalement changé l’économie
Docker : le cas le plus instructif
- Docker incarnait la conteneurisation elle-même, la technologie qui a rendu possible le développement cloud native
- Il était utilisé par des millions de développeurs et peut être considéré comme l’outil développeur le plus important de l’ère du cloud
- Pourtant, Docker n’a pas trouvé de moyen de monétiser la primitive, et n’a pas réussi à relier cette adoption massive des développeurs à la dépense de compute sous-jacente rendue possible par les conteneurs
- Kubernetes (open source par Google) a capté l’activité d’orchestration, tandis que tous les hyperscalers ont monétisé l’innovation de Docker via des services de conteneurs managés
- Docker a rendu possible des milliards de dollars de dépenses en compute, sans en capter la moindre part (la situation s’est nettement améliorée ces dernières années, mais cette analyse porte sur les débuts)
- Point commun avec d’autres entreprises qui ont connu une adoption massive mais se sont heurtées au mur du business model : elles étaient profondément intégrées à la stack d’infrastructure cloud et constituaient des outils critiques, mais elles n’ont pas réussi à faire de leurs revenus un dérivé de la primitive centrale de consommation
- Elles ont monétisé de manière adjacente — sièges, contrats de support, conseil, etc. — et le marché les a rémunérées en conséquence, c’est-à-dire pas du tout
Transposition à l’ère de l’IA : le token est la nouvelle primitive
- Si l’infrastructure cloud s’est construite sur la primitive du compute, l’infrastructure IA se construit sur une autre primitive : le token
- Tous les workloads IA aboutissent en fin de compte aux tokens qu’un modèle génère, traite et consomme
- Prompt → tokens, contexte → tokens, réponse → tokens
- Un agent exécutant un workflow en plusieurs étapes peut générer d’énormes volumes de tokens en raisonnant sur les tâches
- Le token est l’unité atomique de travail des systèmes d’IA modernes
Les entreprises IA positionnées sur le chemin des tokens
- Les fournisseurs de modèles comme OpenAI et Anthropic sont la primitive token elle-même (de la même manière que les hyperscalers étaient la primitive compute/stockage du cloud), et facturent à l’unité de token en entrée et en sortie
- Les entreprises IA qui croissent le plus vite aujourd’hui sont directement positionnées sur le chemin des tokens
- Les agents de codage en sont l’exemple le plus représentatif ; selon des informations de presse en ligne, Cursor a récemment atteint 2 milliards de dollars d’ARR
- Chaque frappe au clavier, complétion de code et action de l’agent déclenche de l’inférence, et le business model a évolué d’une simple facturation au siège vers des sièges assortis de limites d’usage
- Le revenu est structurellement couplé à la consommation de tokens
- Des acteurs de l’inférence comme Inferact, Baseten, Fireworks et Together vendent, au fond, la primitive brute elle-même
- Les revenus des entreprises les plus proches de la génération et de la consommation des tokens s’étendent naturellement avec l’activité IA
- D’autres parties de l’écosystème IA expérimentent des modèles de pricing SaaS traditionnels (facturation au siège, abonnements plateforme, licences enterprise sur de l’open source)
- Ces entreprises peuvent aussi réussir, mais si l’histoire sert de guide, les plus grandes entreprises d’infrastructure émergent là où l’unité centrale d’activité de la plateforme est mesurée et monétisée
Condition nécessaire, mais non suffisante : l’importance de la différenciation
- Être sur le chemin des tokens est une condition nécessaire, pas suffisante
- À l’ère du cloud, les entreprises pure play du CDN étaient techniquement sur le « chemin du compute », facturaient à la bande passante et aux requêtes, et le trafic a explosé
- Pourtant, la bande passante s’est révélée être une commodité — avec des prix en baisse continue
- Limelight Networks, malgré un trafic record pendant le boom du streaming de 2020-2021, a vu son chiffre d’affaires reculer ; l’entreprise s’est ensuite rebaptisée Edgio avant de finalement faire faillite
- À l’inverse, Cloudflare est parti d’un point similaire mais a superposé sécurité, outils développeur et edge compute pour construire une véritable différenciation et des coûts de changement au-dessus de la primitive — d’où des résultats radicalement différents malgré un point de départ identique
Leçon pour les fondateurs IA
- Montez sur le chemin des tokens, mais construisez par-dessus quelque chose de différencié
- Il ne faut pas être un simple tuyau par lequel circulent les tokens, mais une couche qui rend les tokens plus précieux
- meilleure expérience développeur (Cursor), modèles verticaux spécialisés, outils de sécurité et de conformité, moat de données propriétaire, etc.
- Il y a aussi une dimension de timing : à l’ère du cloud, les entreprises devenues tôt le choix par défaut sur le chemin du compute ont capté le plus de valeur
- Datadog, Snowflake et Cloudflare ont tous atteint l’échelle avant que la primitive ne soit totalement commoditisée
- La fenêtre d’entrée sur le chemin des tokens est ouverte maintenant : le coût de l’inférence baisse rapidement (ce qui signifie davantage de consommation de tokens, mais aussi une compression de l’économie unitaire)
- Cette compression intervient avant la construction du moat ; il faut donc entrer sur le chemin et bâtir le moat en même temps
- Si vous possédez le compteur, la croissance suit d’elle-même
Mise à jour des valorisations du marché SaaS
- Les entreprises SaaS sont généralement valorisées en multiples de revenus (le plus souvent le chiffre d’affaires NTM Revenue attendu sur les 12 prochains mois)
- La plupart des entreprises logicielles n’étant pas rentables ou ne générant pas de FCF significatif, c’est le seul indicateur permettant de comparer l’ensemble du secteur
- Les DCF sont eux aussi remplis d’hypothèses de long terme, et la promesse du SaaS est qu’une croissance initiale se transformera en profits à maturité
- Le calcul est : Enterprise Value (capitalisation boursière + dette - trésorerie) / revenus NTM
- Médiane globale : 3.5x, médiane des 5 premiers : 17.7x, obligation d’État américaine à 10 ans : 4.1%
Buckets de valorisation par taux de croissance
- Forte croissance (croissance NTM >22%) : médiane 10.4x
- Croissance moyenne (15%~22%) : médiane 6.5x
- Faible croissance (<15%) : médiane 2.7x
- Le seuil de 22% pour la forte croissance est quelque peu arbitraire, mais il permet d’obtenir une taille d’échantillon statistiquement significative d’environ 10 entreprises dans ce bucket
EV / NTM Rev / NTM Growth
- Indicateur obtenu en divisant le multiple EV / revenus NTM par l’attente consensuelle de croissance NTM
- Exemple : une entreprise valorisée à 20x les revenus NTM avec une croissance attendue de 100% se négocie à 0.2x
- L’objectif est de montrer à quel point chaque action est relativement bon marché / chère par rapport aux attentes de croissance
EV / NTM FCF
- Le graphique en ligne affiche la médiane des entreprises dont le multiple de FCF est >0x et <100x
- Il s’agit de montrer le sous-ensemble d’entreprises pour lesquelles le FCF est un indicateur de valorisation pertinent
- Les entreprises dont le NTM FCF est négatif sont exclues du graphique
Corrélation entre taux de croissance et multiple de valorisation
- Présentation d’un nuage de points (Scatter Plot) EV / revenus NTM vs taux de croissance des revenus NTM
- Visualisation de la corrélation entre croissance et multiple de valorisation
Indicateurs opérationnels (Operating Metrics)
- Médiane de croissance NTM : 13%
- Médiane de croissance LTM : 15%
- Médiane de marge brute (Gross Margin) : 75%
- Médiane de marge opérationnelle (Operating Margin) : (1%)
- Médiane de marge de FCF : 20%
- Médiane de Net Retention : 109%
- Médiane de délai de récupération du CAC : 34 mois
- Médiane du ratio S&M : 35% du chiffre d’affaires
- Médiane du ratio R&D : 23% du chiffre d’affaires
- Médiane du ratio G&A : 15% du chiffre d’affaires
Comps Output : Rule of 40 et GM Adjusted Payback
- La Rule of 40 est présentée comme la somme du taux de croissance du chiffre d’affaires et de la marge de FCF (en LTM comme en NTM)
- FCF = flux de trésorerie d’exploitation - dépenses d’investissement
- GM Adjusted Payback = (S&M du trimestre précédent) / (ARR net nouveau trimestriel × marge brute) × 12
- Nombre de mois nécessaires pour qu’une entreprise SaaS récupère son CAC fully loaded sur la base de la marge brute
- Comme la plupart des entreprises cotées ne publient pas leur ARR net nouveau, un ARR implicite est calculé à partir du chiffre d’affaires d’abonnement trimestriel × 4
- ARR net nouveau = ARR du trimestre en cours - ARR du trimestre précédent
- Les entreprises qui ne publient pas leur chiffre d’affaires d’abonnement sont exclues de l’analyse (indiqué comme NA)
Aucun commentaire pour le moment.