- À l’ère où l’IA écrit tout le logiciel, les logiciels qui économisent des tokens (coût d’inférence) survivront sous l’effet d’une pression de sélection évolutionnaire
- La formule du ratio de survie permet de mesurer l’aptitude d’un logiciel, et il ne peut survivre que lorsque les économies cognitives dépassent les coûts cognitifs (au-delà de 1)
- Des outils comme Git ou grep sont des cas où le coût serait absurdement élevé pour une IA de les recréer puis de les utiliser, grâce à la compression d’insight et à l’efficacité du substrat
- Pour qu’un agent adopte un outil, la notoriété (Awareness) et la friction minimale (Friction) sont indispensables, et la conception en Desire Paths est efficace
- Même dans une époque centrée sur l’IA, le coefficient humain (Human Coefficient) continue d’agir : les domaines où l’intervention et la préférence humaines créent une valeur directe continueront à survivre
Contexte : prévoir le logiciel à l’ère de l’IA
- Depuis juin 2024 avec Death of the Junior Developer, puis la prédiction de l’arrivée des orchestrateurs il y a 10 mois, et le projet Gas Town, l’auteur a continué à prédire correctement la courbe de progression de l’IA
- Gas Town a été développé en extrapolant la trajectoire suivante : autocomplétion de code en 2023 → interfaces conversationnelles en 2024 → agents début 2025 → orchestration début 2026
- Le fondement de toutes ces prédictions est une confiance assumée dans la courbe de progression exponentielle
- L’auteur dit faire totalement confiance à la direction indiquée par Dario Amodei et Andrej Karpathy sur l’avenir du logiciel
- Gas Town est un exemple montrant que cette extrapolation fonctionne en pratique, avec une forme qui tient tout juste debout validée d’abord à l’aide de modèles de fin 2025 et de nombreux correctifs temporaires
Un écosystème logiciel sous menace
- La pression sur les entreprises SaaS augmente, et la structure de coût du buy vs build change, au point que des équipes métier créent elles-mêmes leur propre SaaS par vibe coding
- Il y a seulement 3 ans, GPT-3.5 peinait à écrire une seule fonction ; aujourd’hui, il devient possible de générer directement un petit SaaS, mais à valeur réelle
- Stack Overflow et Chegg ont été touchés en premier, puis la pression s’est étendue aux logiciels de support client Tier-1, aux systèmes low-code/no-code, aux outils de génération de contenu et à divers outils de productivité
- Les éditeurs d’IDE ont eux aussi commencé à ressentir la pression concurrentielle depuis l’arrivée de Claude Code
- Étant donné que les prévisions des chercheurs en IA ont montré une précision élevée sur environ 40 ans, il faut se préparer en partant du principe que tous les domaines du logiciel peuvent être menacés
Le modèle de pression de sélection (Selection Argument)
- L’inférence a besoin de tokens, la consommation de tokens entraîne une consommation d’énergie, et l’énergie se convertit directement en coût
- {tokens, énergie, argent} peuvent être traités comme une même contrainte de ressources, toujours limitée
- Une règle simple structure l’ensemble de l’écosystème logiciel : les logiciels qui réduisent les coûts cognitifs survivent
- C’est la même structure qu’une pression de sélection évolutionnaire où, dans un environnement à ressources limitées, les entités qui utilisent ces ressources plus efficacement évinceraient les autres
La formule du ratio de survie (Survival Ratio)
- Survival(T) ∝ (Savings × Usage × H) / (Awareness_cost + Friction_cost)
- Savings : le coût cognitif économisé grâce à l’outil, c’est-à-dire la quantité de tokens évitée par rapport à une synthèse complète de la même fonction depuis zéro
- Usage : la fréquence et l’étendue avec lesquelles l’outil peut être réutilisé dans divers contextes
- H (Human Coefficient) : un coefficient qui reflète la demande valorisant ce qui est fait par des humains, indépendamment de l’efficacité
- Awareness_cost : l’énergie nécessaire pour qu’un agent connaisse l’existence de l’outil, s’en souvienne et le choisisse au bon moment
- Friction_cost : l’énergie consommée à cause des erreurs, échecs, nouvelles tentatives et malentendus lors de l’usage réel
- Le ratio minimal pour survivre est 1, mais dans un environnement concurrentiel il faut un ratio bien plus élevé
- Exemple : un outil avec un ratio de survie de 1,2 peut être évincé par un concurrent qui atteint 2,5
Levier 1 : compression d’insight (Insight Compression)
- L’industrie logicielle compresse sous une forme réutilisable des connaissances beaucoup trop coûteuses à redécouvrir accumulées pendant de longues années
- Git en est l’exemple type : DAG de commits, références (
ref) comme pointeurs, index, reflog, etc., sont des structures condensant des décennies de tâtonnements
- Si une IA devait tout réimplémenter depuis zéro, elle devrait retraverser la même histoire intellectuelle, ce qui serait économiquement totalement irrationnel
- Le même principe s’applique aux bases de données, compilateurs, systèmes d’exploitation, moteurs de workflow et systèmes de monitoring
- Kubernetes n’est pas complexe parce que sa conception le serait inutilement, mais parce que les systèmes distribués sont intrinsèquement complexes
- Temporal fournit une exécution durable (durable execution), car implémenter soi-même le pattern saga avec des retries idempotents relève pratiquement d’un projet de recherche
- Le trait commun des logiciels robustes est une densité d’insight telle que la simple idée de les resynthétiser paraît absurde
- Dans Gas Town, les modèles de rôles de personnages ou des verbes comme
gt sling sont eux aussi des exemples de compression de concepts complexes en expressions courtes et faciles à mémoriser
Levier 2 : efficacité du substrat (Substrate Efficiency)
- grep est un autre cas où la réinvention frise la folie
- Suffisamment simple pour que Ken Thompson le crée en une après-midi, il permet pourtant d’énormes économies de coût cognitif grâce à un traitement fondé sur le CPU
- Pour la recherche de motifs textuels, le CPU surpasse le GPU de plusieurs ordres de grandeur
- Le mode de multiplication d’un LLM consiste à combiner de la reconnaissance de motifs pour estimer d’abord « à peu près 94 », puis à corriger les chiffres à l’aide de tables de correspondance mémorisées
- Tout ce calcul s’effectue sur le substrat extrêmement inefficace qu’est l’inférence sur GPU
- Les calculatrices, parseurs, outils de transformation complexes comme ImageMagick et de nombreux utilitaires CLI Unix exploitent fortement ce levier
- En appliquant de bons algorithmes, ou en déplaçant les calculs vers des substrats moins coûteux comme le CPU ou l’humain, ils économisent des tokens et de l’énergie
Levier 3 : utilité large (Broad Utility)
- Cela correspond au terme Usage dans le modèle du ratio de survie
- Plus le champ d’usage est large, plus le coût de notoriété est amorti, et plus le seuil d’économies de tokens requis à chaque usage individuel baisse
- Pour un outil qui économise réellement des tokens de manière générale, même si l’IA pourrait théoriquement le réimplémenter, l’option déjà omniprésente et largement utilisée sera prioritaire
- Temporal fournit un modèle de workflow presque aussi générique que PostgreSQL, malgré des coûts de notoriété et de friction relativement élevés
- Il possède les trois leviers à la fois : compression d’insight agressive, usage habile du substrat de calcul et utilité large
- Dolt est une base de données versionnée avec Git, un projet open source maintenu depuis 8 ans
- Il a trouvé tardivement une killer app dans les workflows de production et de DevOps fondés sur des agents
- Même si un agent commet une erreur en production, il est possible de rollback ou rollforward en utilisant l’ensemble des capacités de Git
- Les moteurs de recherche de code deviennent beaucoup plus importants à mesure que les LLM génèrent 10 à 100 fois plus de code qu’auparavant
- Cela crée un créneau générique à grande échelle, le domaine du « trop grand pour grep »
- En résolvant un problème non trivial riche en edge cases difficiles à découvrir, en utilisant un substrat de calcul peu coûteux et en restant applicables de façon générale, ils cochent les trois leviers
Levier 4 : publicité (Publicity)
- Réduire le coût cognitif ne suffit pas ; il faut aussi résoudre le problème de notoriété, c’est-à-dire la question qui se pose avant même la sélection
- Dolt avait les leviers 1 à 3, mais manquait au départ du levier 4, ce qui a limité son adoption
- Il existe plusieurs façons de payer le coût de notoriété
- Construire un excellent produit, gagner en popularité, puis attendre qu’il finisse naturellement dans les données d’entraînement via la communauté
- Ou investir de l’argent dans une documentation pour agents ou dans de la publicité
- Plus directement, on peut collaborer avec des interlocuteurs chez des frontier labs comme OpenAI, Anthropic ou Google pour inclure l’outil dans l’entraînement des modèles
- Sous forme de service payant, on produit des evals montrant à la fois les bons usages et les mésusages, puis les chercheurs ajustent l’entraînement
- Le concept de SEO pour agents est en train d’émerger pour de bon
- Si l’on ne peut pas engager de gros budgets, il faut alors s’appuyer sur l’énergie dépensée après la sélection, autrement dit sur le levier 5, et concevoir l’outil pour qu’il soit aussi agent-friendly que possible
Levier 5 : minimiser la friction (Minimizing Friction)
- Si la notoriété est un problème en amont de la sélection, la friction produit est un problème qui surgit après l’usage
- Les agents agissent toujours comme s’ils étaient pressés par le temps, et dès qu’ils butent sur quelque chose, ils essaient immédiatement une voie de contournement
- La moindre friction peut suffire à faire changer leur jugement, les poussant à abandonner un outil plus efficace au profit d’une méthode moins efficace mais plus familière et prévisible
- À l’inverse, un outil conçu exactement selon leurs préférences sera réutilisé avec une insistance presque obsessionnelle par les agents
- L’approche par la documentation consiste à reporter le coût de notoriété jusqu’au moment de l’inférence, plutôt qu’à l’étape de l’entraînement
- On injecte directement dans le contexte ce que l’outil fait bien, quand et pourquoi l’utiliser, ainsi qu’un guide de démarrage rapide et des chemins vers la documentation plus détaillée
- Mais la meilleure solution consiste à créer un outil qui paraisse intuitif pour les agents
- Exemple de conception en Desire Paths : Beads a fait évoluer sa CLI pendant 4 mois au fil de plus de 100 sous-commandes, de nombreuses sous-sous-commandes, d’alias et de syntaxes alternatives
- Cette CLI complexe n’a pas été conçue pour des humains, mais pour les schémas d’usage des agents
- En observant la manière dont les agents essayaient de s’en servir, l’auteur a transformé leurs hallucinations en fonctionnalités réelles, si bien qu’aujourd’hui presque toutes leurs suppositions fonctionnent telles quelles
- Le hallucination squatting consiste à repérer les noms de domaine fréquemment hallucinés par les LLM, à les enregistrer, puis à y déposer des artefacts pour que ceux-ci soient effectivement téléchargés
- Cela montre que même des groupes de hackers opérant à l’échelle d’un État comprennent et exploitent l’Agent UX
- L’Agent UX est d’une importance décisive, mais reste encore négligée dans la plupart des outils
- L’outil idéal ressemble à d’autres outils que les agents connaissent déjà, ou résout le problème exactement de la manière dont les agents ont envie de raisonner
Levier 6 : coefficient humain (Human Coefficient)
- Il existe des logiciels qui tirent leur valeur du simple fait qu’un humain est intervenu, indépendamment de l’efficacité en tokens
- La valeur peut venir de la curation humaine, de la preuve sociale, de la créativité, de la présence physique ou de l’approbation
- Une playlist choisie par un humain peut battre une playlist générée par IA de qualité équivalente mais plus efficace énergétiquement
- Dans le jeu, les environnements avec de vrais humains l’emportent en général, et les gens veulent rarement jouer uniquement contre une IA manifestement supérieure à l’humain
- Des réseaux sociaux excluant les agents pourraient au contraire devenir plus attractifs
- Même si l’IA devient le meilleur enseignant possible, certaines personnes choisiront délibérément un enseignant humain
- Même dans les domaines à fort Human Coefficient, la concurrence sera intense
- Dans le monde décrit par Karpathy, les agents peuvent être tout pour tout le monde, avec une capacité d’addiction intrinsèquement forte
- En conséquence, il pourrait exister beaucoup de logiciels extrêmement inefficaces mais avec une valeur H très élevée
Pourquoi il y a encore de l’espoir
- Les logiciels qui servent d’intermédiaires entre l’humain et l’IA, ou qui jouent un rôle de “faire semblant d’être intelligent” que l’IA pourra bientôt remplir directement, sont structurellement en danger
- Malgré cela, la quantité de logiciel qu’il reste à écrire est pratiquement infinie
- Guérir toutes les maladies, modéliser le comportement de toutes les protéines, explorer tous les scénarios d’exploration planétaire restent des objectifs ouverts
- L’ambition humaine dépasse toujours la capacité cognitive disponible, et même si le coût des tokens baisse, nous nous déplacerons aussitôt vers des frontières plus lointaines
- Le problème de l’attention a déjà été affronté à plusieurs reprises avec l’imprimé, Internet, les réseaux sociaux, la publicité en temps réel et les agrégateurs
- La conception en Desire Paths fonctionne réellement, et il est possible de créer des outils que les agents ont naturellement envie d’utiliser, même sans les énormes budgets d’entraînement d’OpenAI et consorts
- Le coefficient humain existe clairement, et les gens commencent déjà à ressentir une fatigue face à tout ce qui sent trop fortement l’agent
- Si l’on conçoit en mettant au centre les connexions humaines et la créativité, alors le problème finit par revenir au marketing et au branding traditionnels
- Les six leviers offrent divers chemins de survie
- Si l’on construit quelque chose que toute tentative de refaire de zéro paraît folle, et qu’on le rend facile à découvrir et facile à utiliser, on obtient une base de survie solide
Aucun commentaire pour le moment.