- Alors que les outils d’IA font chuter brutalement les coûts et les besoins humains du développement logiciel, la question de savoir où se situe encore la barrière à l’entrée d’un business logiciel devient centrale
- À l’heure où l’IA peut remplacer la plupart des tâches de transformation, les données du monde réel produites par des humains restent le seul moat que l’IA agentique ne peut pas répliquer
- Le marché des données se scinde (bifurcation) entre les « données générées par des humains » et les « données générées par l’IA » : la valeur des premières augmente, tandis que les secondes deviennent des commodités
- Les logiciels de simple transformation (des workflows du type Excel → PDF → email) peuvent être remplacés par l’IA agentique, mais la collecte continue de données à grande échelle et les systems of record ne peuvent pas l’être
- L’obtention de l’API parity (équivalence fonctionnelle sur l’UI, REST et MCP) et l’accumulation de métadonnées seront les avantages compétitifs clés des business logiciels à venir
L’évolution du moat logiciel à l’ère de l’IA
- Les outils fondés sur les LLM ont rendu le développement de logiciels complexes radicalement plus simple, sans toutefois tout résoudre
- Il faut toujours un orchestrateur, c’est-à-dire quelqu’un qui sait quoi construire ; c’est un rôle à l’intersection des compétences techniques, du product management, du customer development et de l’ingénierie
- Ce qui nécessitait 10 personnes pour construire quelque chose de significatif tend désormais à n’en demander plus que 3, 2, voire 1
- Si les produits logiciels deviennent faciles à déployer et à maintenir, les anciens moats (difficulté de développement, mise en produit d’un savoir métier, etc.) sont en grande partie remplacés par l’IA
La grande bifurcation des données
- Le monde de la donnée se divise en deux branches
- Données générées par des humains : épisodes de podcast, vidéos, publications sur les réseaux sociaux, billets de blog et autres contenus créés directement par des personnes
- Données générées par l’IA : images IA, voix synthétiques TTS, vidéos entièrement produites par l’IA, spams rédigés par des agents, etc.
- Les données humaines voient leur valeur augmenter grâce à leur rareté et leur singularité, alors que les données générées par l’IA deviennent des commodités à mesure que les modèles gagnent en vitesse et baissent en coût
- Les données humaines condensent l’ensemble du savoir détenu par leur créateur, ce qui fait de cette personne le seul acteur capable de produire ces données
- Par définition, l’IA ne peut pas produire de données générées par des humains ; ainsi, les données du monde réel produites, vérifiées et raffinées par des humains constituent, pour les dix prochaines années, le seul moat véritablement fiable pour les fondateurs de logiciels
Le cas Podscan : un moat de données en pratique
- La valeur clé du service de monitoring de podcasts Podscan ne réside pas dans la vitesse de collecte des flux RSS ni dans le temps de réponse de l’API
- La vraie valeur se trouve dans les données de transcription de 50 millions d’épisodes de podcast et dans leur analyse par IA (mots-clés, thèmes, analyse de sentiment)
- Le cœur de la valeur ajoutée consiste à collecter des données publiques (les épisodes de podcast) et à les rendre transcrites, transformées et accessibles
- Cela peut servir à suivre les mentions de marque, repérer les tendances en temps réel ou évaluer des opportunités de sponsoring dans les podcasts
- Plus la fidélité et la fraîcheur des données augmentent, plus la valeur perçue par les clients progresse
- Même si l’UI est peu pratique ou que l’API est limitée, les clients finissent par trouver un moyen d’accéder aux données — ce sont les données elles-mêmes qui comptent
- Si le produit se limitait à prendre une URL pour fournir transcription et analyse, cette fonction pourrait être reproduite en moins de 2 heures sous forme de skill dans Claude Code
- Si un agent devait collecter, transcrire et analyser 50 000 épisodes par jour, le coût API grimperait à plusieurs dizaines de milliers de dollars par jour, ce qui le rend pratiquement irréaliste
La fragilité des logiciels de transformation
- Les logiciels purement transformationnels qui prennent des données en entrée, les traitent puis produisent une sortie sont vulnérables face à l’IA agentique
- Exemple : « ChatGPT, crée un rapport à partir de ce fichier Excel, exporte-le en PDF, puis envoie-le par email » — tout cela peut être exécuté de manière autonome, sans service externe
- L’IA peut implémenter elle-même, ou réutiliser, le parsing Excel, les requêtes d’analyse, le rendu PDF et l’envoi d’email
- Un business SaaS conçu pour un workflow Excel → rapport → email n’est donc plus nécessaire
- En revanche, la collecte continue de données à grande échelle reste un domaine difficile à remplacer par des agents
- Les agents ont une nature éphémère, limitée à la durée d’une session (Cursor, Claude Code, conversation ChatGPT, etc.)
- Des agents qui scrutent et travaillent en permanence consommeraient tellement de tokens que cela deviendrait économiquement irréaliste
Stratégie business API-first
- Dans le logiciel aujourd’hui, une stratégie API-first est l’un des choix les plus judicieux
- MCP n’est qu’une couche posée au-dessus des API REST existantes ; accès programmatique, MCP, API et webhooks relèvent tous de la même logique : des connexions fiables entre machines
- Chez les fondateurs, la demande pour une équivalence fonctionnelle entre UI et API (parity) est en hausse
- Plus ce qu’on peut faire dans l’UI peut être reproduit à l’identique via l’API, plus les chances d’adoption du produit augmentent
- À l’ère des agents, la possibilité d’automatiser devient un facteur décisif dans l’achat
- Podscan maintient un fichier de suivi de la parity entre plateformes
- Pour chaque fonctionnalité, un tableau indique si elle est disponible dans l’UI, la REST API et MCP
- Un sous-agent Claude Code analyse la base de code et met périodiquement ce fichier à jour
- Cela couvre aussi bien des fonctions simples comme la « recherche de podcast » que des scénarios complexes comme « alerte par mot-clé sur une mention de marque → ajout à une liste → déclenchement d’un webhook »
- Il faut servir de manière équivalente les utilisateurs humains, les utilisateurs machines et les utilisateurs agents
Les métadonnées comme moat
- Le moat de données ne se limite pas aux données de podcast
- Les métadonnées collectées lors de l’usage d’une plateforme (heures de publication, créneaux de forte engagement, types de contenus qui suscitent l’interaction, etc.) constituent un moat de données unique
- Exemple : pour un outil de publication sur Twitter ou Facebook, les données sur les comportements utilisateurs deviennent le moat
- Posséder les données ne représente que la moitié du moat ; les rendre accessibles en constitue l’autre moitié
- Le point clé est d’identifier quelles sources internes de données à forte valeur ajoutée votre produit possède, puis de les connecter et de les rendre accessibles
Aucun commentaire pour le moment.