- Le fonds de capital-risque a16z publie un rapport qui anticipe les grandes tendances de l’industrie technologique en 2026, avec les perspectives des partners des équipes d’investissement sur les volets infrastructure, croissance, bio & santé, speedrun, dynamisme américain, apps, crypto
- Les agents IA vont conduire à une refonte en profondeur de l’infrastructure des entreprises, tandis que le tri des données multimodales et l’infrastructure agent-native s’imposent comme des priorités majeures
- Dans les logiciels d’entreprise, l’importance des systèmes d’enregistrement (System of Record) diminue, au profit de moteurs de workflow autonomes où l’IA lit, écrit et raisonne directement sur les données
- Les stablecoins vont s’imposer comme moyen de paiement grand public, tandis que l’émission d’actifs on-chain et les blockchains axées sur la confidentialité deviennent des facteurs de différenciation
- L’année 2026 est annoncée comme l’"année du moi" (Year of Me), avec des services IA personnalisés offrant des expériences sur mesure pour le grand public dans l’éducation, la santé et les médias
# [Infrastructure]
Les startups qui apprivoisent le chaos des données multimodales - Jennifer Li
- Les données non structurées et multimodales détenues par les entreprises constituent à la fois le plus grand goulet d’étranglement pour l’adoption de l’IA et l’actif le plus sous-exploité
- PDFs, captures d’écran, vidéos, logs, e-mails et données semi-structurées s’accumulent dans toute l’entreprise
- Les performances des modèles s’améliorent rapidement, mais les données d’entrée deviennent de plus en plus chaotiques
- Cela entraîne des hallucinations dans les systèmes RAG ainsi que des erreurs subtiles et coûteuses de la part des agents
- Les workflows critiques dépendent encore fortement d’une QA humaine
- Le facteur limitant des entreprises de l’IA n’est plus le compute, mais l’entropie des données
- Dans les environnements de données non structurées, la fraîcheur, la structure et la véracité se dégradent en continu
- Environ 80 % de la connaissance d’entreprise se trouve dans cette sphère non structurée
- Résoudre le problème des données non structurées représente une opportunité générationnelle
- Il faut des systèmes capables de trier, structurer, valider et gouverner en continu les données multimodales
- C’est à cette condition que les charges de travail IA en aval pourront fonctionner de façon réellement fiable
- Le champ d’application s’étend à presque tous les workflows d’entreprise
- Analyse de contrats, onboarding, gestion des réclamations, conformité, support client, achats
- Recherche en ingénierie, aide à la vente, pipelines analytiques
- Y compris tous les workflows d’agents qui dépendent d’un contexte fiable
- Le véritable terrain de jeu se situe au niveau de la couche plateforme
- Extraction de la structure à partir de documents, d’images et de vidéos
- Réconciliation des conflits de données et réparation des pipelines
- Maintien des données à jour et toujours recherchables
- Prise de contrôle du cœur de la connaissance et des processus de l’entreprise
L’IA relance le recrutement en cybersécurité - Joel de la Garza
- Au cours des dix dernières années, le plus gros problème de la cybersécurité a été le recrutement
- Entre 2013 et 2021, le nombre de postes de sécurité non pourvus est passé de moins de 1 million à 3 millions
- Le cœur du problème tient à la structure du travail de sécurité de niveau 1
- On recrute du personnel hautement qualifié pour l’affecter à des tâches répétitives et épuisantes comme la revue de logs
- Presque personne ne souhaite faire ce travail durablement
- Les organisations de sécurité créent elles-mêmes leur travail parasite
- Elles déploient des produits de sécurité qui détectent tout
- Résultat : chaque alerte doit être examinée par un humain
- Cela crée une fausse rareté du travail, plutôt qu’une véritable pénurie
- En 2026, l’IA brise ce cercle vicieux
- Elle automatise une grande partie des tâches de sécurité répétitives et redondantes
- La moitié du travail des grandes équipes de sécurité peut être prise en charge par l’automatisation
- Le plus difficile est de déterminer quoi automatiser
- Quand on est submergé par les tâches, on ne peut pas identifier les bons candidats à l’automatisation
- Les outils de sécurité AI-native prennent cette décision à la place des équipes
- Ils libèrent les équipes de sécurité des tâches répétitives
- Elles peuvent alors se concentrer sur la traque des attaquants, la construction de systèmes et la correction des vulnérabilités
Une infrastructure agent-native devient une exigence de base - Malika Aubakirova
- En 2026, le plus grand choc pour l’infrastructure viendra non pas de l’extérieur, mais de transformations internes
- On quitte un trafic humain prévisible et faiblement concurrent
- Les charges de travail au rythme des agents, récursives et explosives, deviennent la norme
- Les backends d’entreprise existants ont été conçus pour les humains
- Ils supposent une réponse système pour une action humaine
- Ils n’anticipent pas qu’un objectif unique confié à un agent puisse générer des milliers de sous-tâches simultanément
- Le travail normal des agents ressemble à une attaque pour les systèmes legacy
- Le refactoring de code ou la modification de logs de sécurité sont perçus comme du trafic DDoS
- La réponse clé consiste à repenser le control plane
- Une infrastructure agent-native devient une exigence de base
- Les patterns de thundering herd sont traités comme l’état normal, et non comme une exception
- Les critères de performance changent en profondeur
- Réduction au minimum des cold starts
- Effondrement de la variabilité de latence
- Hausse d’un ordre de grandeur des limites de concurrence
- Le goulet d’étranglement n’est pas le calcul, mais la coordination
- Le routage, le locking, la gestion d’état et l’application des politiques deviennent centraux dans l’exécution parallèle à grande échelle
- Seules survivront les plateformes capables d’encaisser un déluge d’exécutions d’outils
Les outils de création évoluent vers le multimodal - Justine Moore
- L’IA dispose déjà des composants clés du storytelling
- Elle sait générer voix, musique, images et vidéo
- Le problème, c’est le niveau de contrôle
- Au-delà de clips ponctuels, il devient difficile d’obtenir le résultat voulu et les coûts explosent
- On est encore loin du niveau de contrôle d’une réalisation traditionnelle
- Les créateurs veulent un montage multimodal fondé sur des références
- Entrer une vidéo de 30 secondes, ajouter un nouveau personnage et prolonger la scène
- Recomposer une scène comme si elle avait été filmée sous un autre angle
- Reproduire le même mouvement qu’une vidéo de référence
- 2026 sera l’année de l’IA multimodale
- N’importe quelle forme de contenu de référence pourra servir d’entrée
- La génération de nouvelles scènes et l’édition de scènes existantes s’enchaîneront naturellement
- Des produits précurseurs comme Kling O1 et Runway Aleph font leur apparition
- Des innovations supplémentaires sont nécessaires à la fois dans la couche modèle et dans la couche application
- La production de contenu est le killer use case de l’IA
- Avec un marché allant des créateurs de mèmes jusqu’aux réalisateurs hollywoodiens
La stack data AI-native continue d’évoluer - Jason Cui
- Au cours de l’année écoulée, la modern data stack s’est rapidement consolidée
- La division du travail centrée sur la collecte, la transformation et le compute s’effondre
- Le bundling et les plateformes intégrées deviennent la norme
- La fusion Fivetran/dbt et l’ascension de Databricks l’illustrent
- L’écosystème semble mûr, mais la vraie architecture AI-native n’en est encore qu’à ses débuts
- L’infrastructure data et l’infrastructure IA sont en train de fusionner au point de devenir indissociables
- Les bases de données vectorielles s’imposent comme un composant central
- Une architecture où elles opèrent aux côtés des données structurées devient la base
- Le défi clé de l’ère des agents est le problème du contexte
- Il faut un accès continu aux bonnes données et à la bonne couche sémantique
- Il faut maintenir des définitions métier cohérentes à travers plusieurs systèmes of record
- Les outils de BI et les tableurs changent en profondeur
- Les workflows data basculent vers une logique centrée sur les agents et l’automatisation
L’année où l’on entre dans la vidéo - Yoko Li
- En 2026, la vidéo ne sera plus un média consommé passivement
- Elle deviendra un espace dans lequel on entre réellement pour agir
- Les modèles vidéo gèrent le temps et la cohérence
- Ils se souviennent des scènes passées
- Ils réagissent aux actions de l’utilisateur
- Ils conservent une cohérence persistante proche du monde physique
- On sort de la génération de vidéos courtes et fragmentées
- Les personnages, les objets et la physique persistent suffisamment longtemps
- Il devient possible de développer une séquence où les actions produisent des conséquences
- La vidéo se transforme en média constructible
- Les robots s’y entraînent
- Les jeux évoluent
- Les designers y créent des prototypes
- Les agents y agissent directement pour apprendre
- Le résultat n’est plus un clip, mais un environnement vivant
- L’écart entre perception et action se réduit fortement
- On acquiert la sensation d’exister réellement à l’intérieur de la vidéo générée
# [Growth]
La fin de l’ère des systèmes of record - Sarah Wang
- Le véritable changement dans les logiciels d’entreprise en 2026 sera la perte de centralité des systems of record
- L’IA élimine presque totalement la distance entre intention et exécution
- Les modèles lisent, écrivent et raisonnent directement à travers les données opérationnelles
- Les ITSM et CRM passent de simples dépôts à des moteurs de workflows autonomes
- Le rôle des systèmes s’élargit avec les progrès des modèles de raisonnement et des workflows d’agents
- Ils ne se contentent plus de réagir, mais assurent aussi prévision, coordination et exécution de bout en bout
- Le centre de gravité de l’interface change
- À la place d’une UI centrée sur l’écran, une couche d’agents dynamique passe au premier plan
- Les anciens systems of record sont relégués au rang de couche de persistance (persistence tier)
- Le contrôle stratégique se déplace
- La question n’est plus de savoir qui stocke les données
- Mais qui contrôle l’environnement d’exécution intelligent réellement utilisé par les employés
L’IA verticale évolue vers le multijoueur - Alex Immerman
- L’IA verticale croît à une vitesse sans précédent
- Dans la santé, le juridique et le logement, des entreprises ont atteint plus de 100 M$ d’ARR en quelques années
- La finance et la comptabilité suivent rapidement
- La première étape de l’évolution est la recherche d’information
- Trouver, extraire et résumer les informations nécessaires
- En 2025, on passe à l’étape du raisonnement (reasoning)
- Hebbia analyse des états financiers et construit des modèles
- Basis rapproche des balances de vérification issues de plusieurs systèmes
- EliseAI diagnostique des problèmes de maintenance et appelle le bon prestataire
- En 2026, le mode multijoueur s’ouvre
- Les logiciels verticaux excellent grâce à leur UI, leurs données et leurs intégrations spécialisées par domaine
- Mais le travail réel repose fondamentalement sur une structure collaborative à plusieurs parties
- Si des agents doivent remplacer du travail humain, la collaboration est indispensable
- Acheteurs et vendeurs
- Locataires, conseillers et prestataires
- Chaque participant a des permissions, des workflows et des exigences de conformité différents
- Aujourd’hui, les IA fonctionnent encore en silos
- Une IA qui analyse des contrats n’est pas connectée au CFO
- Une IA de maintenance ne connaît pas les rendez-vous des équipes de terrain
- L’IA multijoueur coordonne tout cela
- Elle route les tâches entre les parties prenantes
- Elle conserve le contexte
- Elle synchronise les changements
- L’IA de l’autre partie négocie dans un périmètre défini
- Elle fait remonter les déséquilibres à une revue humaine
- Les corrections d’un senior partner nourrissent l’apprentissage de toute l’organisation
- Plus la valeur créée par la collaboration augmente, plus les coûts de changement montent
- Cela crée des effets de réseau que les apps IA n’avaient pas
- La couche de collaboration elle-même devient un moat
Concevoir pour des agents, pas pour des humains - Stephenie Zhang
- À partir de 2026, les gens utiliseront le web via leurs propres agents
- Les éléments qui comptaient pour la consommation humaine ne fonctionneront plus de la même façon
- Les optimisations traditionnelles reposaient sur le comportement humain
- Remonter en tête des résultats de recherche
- Arriver sur la première page d’une marketplace
- Commencer par un TL;DR
- Un humain peut rater une phrase importante, un agent non
- Même une phrase clé cachée en page 5 sera trouvée immédiatement par un agent
- Ce changement s’applique aussi à la conception logicielle
- Les apps étaient conçues en fonction du regard et des clics humains
- Les critères d’optimisation étaient une bonne UI et des flux intuitifs
- Avec des agents qui prennent en charge l’interprétation et la recherche, les critères changent
- Le design visuel n’est plus l’élément central de la compréhension
- Au lieu qu’un ingénieur consulte Grafana, un SRE IA interprète la télémétrie et en publie un résumé dans Slack
- Au lieu qu’une équipe commerciale fouille un CRM, un agent fournit automatiquement des patterns et des synthèses
- Désormais, on conçoit non plus pour des humains, mais pour des agents
- Ce n’est plus la hiérarchie visuelle mais la lisibilité machine qui devient le critère d’optimisation
- Ce changement transforme aussi bien les façons de créer que les outils eux-mêmes
Dans les apps IA, le KPI de screen time touche à sa fin - Santiago Rodriguez
- Depuis 15 ans, le screen time est un indicateur clé de la valeur délivrée
- Temps passé sur Netflix
- Nombre de clics dans un EHR médical
- Temps d’utilisation de ChatGPT
- Cet indicateur va bientôt perdre toute pertinence
- Avec la généralisation de la facturation au résultat
- Les incitations des vendeurs et des utilisateurs s’alignent
- Et le premier indicateur à disparaître est le screen time
- Le changement est déjà visible dans le réel
- ChatGPT DeepResearch crée beaucoup de valeur même sans regarder l’écran
- Abridge capture automatiquement les conversations médicales et gère les tâches de suivi
- Cursor génère une app entière, laissant au développeur le soin de concevoir le cycle suivant
- Hebbia produit des decks à partir de centaines de disclosures et rend aux banquiers d’affaires leur sommeil
- Un nouveau défi apparaît
- Pour décider combien facturer par utilisateur, il faut une mesure du ROI plus complexe
- Les apps IA augmentent simultanément la valeur sur plusieurs dimensions
- Satisfaction des médecins
- Productivité des développeurs
- Qualité de vie des analystes financiers
- Bonheur des consommateurs
- Les entreprises qui expliquent le plus simplement leur ROI prendront l’avantage sur le marché
# [Bio + Health]
L’essor des MAU en bonne santé - Julie Yoo
- En 2026, les Healthy MAUs (MAU en bonne santé) émergent comme le cœur de cible de la santé
- Ce sont des consommateurs qui ne sont pas malades aujourd’hui
- Mais qui veulent comprendre et suivre leur santé en continu
- Le système de santé s’est jusqu’ici concentré sur trois types d’utilisateurs
- Sick MAUs : des patients avec des besoins de soins coûteux et ponctuellement explosifs
- Sick DAUs : des utilisateurs ayant besoin de soins intensifs et durables, comme les patients graves ou chroniques
- Healthy YAUs : des utilisateurs relativement en bonne santé qui vont rarement à l’hôpital
- Les Healthy YAUs risquent à tout moment de basculer vers les Sick MAUs ou les Sick DAUs
- Une prise en charge préventive peut ralentir cette transition
- Le problème tient à la structure actuelle des incitations
- Un système de rémunération médicale réactif, centré sur le traitement, récompense davantage le soin que la prévention
- L’accès à des check-ins réguliers ou à des services de monitoring reste limité
- Les assurances paient très peu pour des services orientés prévention
- Les Healthy MAUs comblent ce vide
- Ils ne sont pas malades à l’instant T
- Mais veulent vérifier et comprendre leur état de santé de manière répétée
- Ils pourraient devenir le plus grand groupe potentiel parmi les consommateurs
- Une vague de services visant cette clientèle commence à émerger
- Des startups AI-native
- Des services reconditionnés par des acteurs historiques de la santé
- Tous évoluent vers des offres régulières et sur abonnement
- L’IA réduit la structure de coûts de la prestation de santé
- Automatisation du monitoring et de l’analyse
- Moindre dépendance à la main-d’œuvre
- Cela ouvre la voie à l’arrivée de produits d’assurance centrés sur la prévention
- Les consommateurs s’habituent progressivement à des modèles d’abonnement payés de leur poche
- Les Healthy MAUs deviennent la clientèle clé de la prochaine génération de healthtech
- Engagés en continu
- Guidés par la donnée
- Et orientés prévention
# [Speedrun]
Les world models prennent le centre de la scène dans le storytelling - Jon Lai
- En 2026, les world models alimentés par l’IA occupent le centre du storytelling
- Émergence de nouveaux formats fondés sur des mondes virtuels interactifs et une économie numérique
- Marble (World Labs) et Genie 3 (DeepMind) génèrent des environnements 3D complets à partir de simples prompts textuels
- Les utilisateurs explorent directement ces mondes comme dans un jeu
- À mesure que les créateurs adoptent ces outils, des formes narratives entièrement nouvelles apparaissent
- D’immenses mondes propices à la co-création sont générés
- À terme, cela évolue vers une forme proche de « Minecraft génératif »
- Les mécaniques de jeu se combinent à la programmation en langage naturel
- Des commandes comme « crée un pinceau qui transforme en rose tout ce qu’il touche » agissent comme des règles du monde
- La frontière entre joueur et créateur disparaît
- L’utilisateur n’est plus un simple consommateur, mais devient co-auteur
- Un multivers génératif interconnecté se forme
- Des genres comme la fantasy, l’horreur ou l’aventure coexistent au sein d’un même écosystème
- L’économie numérique s’active à l’intérieur de ces mondes
- Création d’assets
- Accompagnement des nouveaux utilisateurs
- Monétisation via le développement de nouveaux outils d’interaction
- Au-delà du divertissement, ces mondes sont utilisés comme environnements de simulation
- Entraînement d’agents IA
- Apprentissage robotique
- Et, plus loin encore, extension vers des espaces d’expérimentation pour l’AGI
- L’essor des world models n’annonce pas seulement un nouveau genre ludique, mais l’émergence d’un nouveau médium créatif et d’un nouveau front économique
« L’année du moi » - Josh Lu
- 2026 est « The Year of Me », l’année où les produits passent de la production de masse à la fabrication sur mesure
- Le changement a déjà commencé dans l’éducation
- Des startups comme Alphaschool proposent des tuteurs IA qui s’adaptent au rythme et à la curiosité de chaque élève
- Un niveau de personnalisation qui, par le passé, n’était possible qu’avec des dizaines de milliers de dollars de cours particuliers par élève
- Dans la santé aussi, la personnalisation devient quotidienne
- L’IA conçoit des combinaisons de compléments, plans d’entraînement et routines alimentaires adaptées aux données biologiques de chacun
- Sans dépendre d’un coach ou d’un laboratoire
- Les médias se personnalisent eux aussi
- Actualités, émissions et récits sont recomposés selon les centres d’intérêt et le ton propres à chaque individu
- Les gagnants du siècle dernier étaient les entreprises qui avaient trouvé le consommateur moyen
- Les gagnants du prochain siècle seront celles qui sauront trouver l’individu caché dans la moyenne
- 2026 marque le moment où le monde cesse d’optimiser pour « tout le monde » et commence à optimiser pour « vous »
La première université AI native - Emily Bennett
- En 2026, apparaît la première université AI native
- Un établissement conçu dès l’origine autour de systèmes intelligents
- Les universités traditionnelles n’ont intégré l’IA que partiellement jusqu’ici
- Cela s’est limité à la correction, au tutorat et à la planification
- Désormais émerge une organisation académique qui apprend et s’optimise elle-même
- Enseignement, accompagnement, collaboration en recherche et exploitation des bâtiments s’adaptent via des boucles de feedback de données
- Tous les éléments de l’université évoluent en temps réel
- Les emplois du temps s’optimisent d’eux-mêmes
- Les listes de lecture sont mises à jour chaque nuit pour intégrer les recherches les plus récentes
- Les parcours d’apprentissage s’ajustent immédiatement au rythme et au contexte de l’étudiant
- Des signes avant-coureurs existent déjà
- ASU mène des centaines de projets IA grâce à une collaboration à l’échelle de l’institution avec OpenAI
- SUNY inclut obligatoirement la culture IA dans son cursus généraliste
- Dans une université AI native, le rôle du professeur change
- Il ne transmet plus seulement le savoir, il devient architecte de l’apprentissage
- Il curate les données et ajuste les modèles
- Il apprend aux étudiants à traiter de manière critique le raisonnement des machines
- Le mode d’évaluation évolue lui aussi
- La détection du plagiat et les interdictions d’usage disparaissent
- On évalue la manière dont l’IA a été utilisée
- La transparence et un usage mesuré deviennent les critères
- L’ensemble des secteurs a besoin de talents capables de concevoir, opérer et faire collaborer l’IA
- L’université AI native devient le moteur humain de la nouvelle économie pour former ces talents
# [American Dynamism]
Construire une base industrielle AI native - David Ulevitch
- Les secteurs qui constituent la véritable puissance de l’économie américaine reviennent au centre
- L’énergie, l’industrie manufacturière, la logistique et les infrastructures redeviennent des piliers
- Le changement le plus important est l’émergence d’une véritable base industrielle AI native, software-first
- Elle part de la simulation, de la conception automatisée et des opérations pilotées par l’IA
- Il ne s’agit pas de moderniser le passé, mais de construire dès le départ la génération suivante
- De nouvelles opportunités s’ouvrent dans toute l’industrie
- Systèmes énergétiques avancés
- Industrie lourde robotisée
- Industrie minière de nouvelle génération
- Procédés chimiques fondés sur la biologie et les enzymes, socle de toutes les industries
- L’IA redessine les processus industriels clés
- Conception de réacteurs plus propres
- Optimisation de l’extraction des ressources
- Meilleure ingénierie enzymatique
- Réglage de précision de flottes de machines autonomes
- Le monde au-delà de l’usine est lui aussi reconfiguré
- Capteurs autonomes et drones
- Les modèles d’IA les plus récents rendent visibles en continu ports, voies ferrées, réseaux électriques, pipelines, bases militaires et data centers
- Le monde réel a besoin de nouveaux logiciels
- Les entrepreneurs qui les construiront détermineront la prospérité américaine du siècle prochain
La renaissance de l’usine américaine - Erin Price-Wright
- Le premier grand siècle des États-Unis s’est construit sur sa capacité industrielle
- L’offshoring et l’échec généralisé à construire dans la société ont fait perdre une grande partie de cette force
- Désormais, la machine repart
- Une renaissance de l’usine américaine est en cours, avec le software et l’IA au centre
- En 2026, toute l’industrie aborde les problèmes avec une mentalité d’usine
- Cela s’applique à l’énergie, aux mines, à la construction et à l’ensemble du manufacturing
- Le cœur du modèle est la combinaison de l’IA modulaire, de l’autonomie et du travail qualifié
- Elle permet de faire fonctionner des processus sur mesure et complexes comme une chaîne de montage
- Cette approche permet notamment de
- Franchir rapidement et de manière répétable les étapes complexes de régulation et d’autorisation
- Raccourcir les cycles de conception et concevoir en intégrant la fabrication dès l’origine
- Gérer efficacement la coordination de projets à grande échelle
- Accélérer via des systèmes autonomes les tâches difficiles ou dangereuses pour l’humain
- La pensée à la Henry Ford s’applique dès le Day 0
- On conçoit d’emblée pour l’échelle et la répétabilité
- En y associant l’IA la plus récente
- Les résultats apparaissent rapidement
- Production en série de réacteurs nucléaires
- Augmentation de l’offre de logements
- Construction ultra-rapide de data centers
- L’idée selon laquelle « l’usine est le produit » redevient une réalité
- Une nouvelle ère d’or industrielle s’ouvre
La prochaine vague d’observability ne sera pas numérique, mais physique - Zabie Elmgren
- Au cours des dix dernières années, l’observability logicielle a rendu les systèmes numériques transparents
- Logs, métriques et traces ont permis de comprendre le code et les serveurs
- La même innovation s’étend désormais au monde physique
- Plus de 1 milliard de caméras et de capteurs sont déjà déployés à travers les États-Unis
- Une observabilité physique permettant de comprendre en temps réel les villes, les réseaux électriques et les infrastructures devient à la fois urgente et possible
- Cette couche de perception ouvre la prochaine étape de la robotique et de l’autonomie
- Les machines ont besoin d’un tissu commun pour percevoir le monde physique comme du code
- Le risque existe aussi : des technologies de détection des incendies de forêt et de prévention des accidents industriels peuvent basculer vers une dystopie de surveillance
- Les gagnants seront les entreprises qui auront gagné la confiance : préservation de la vie privée, interopérabilité et AI native
- Il faut des systèmes qui rendent la société plus compréhensible, sans la rendre moins libre
- Ceux qui construiront ce tissu de confiance définiront l’observability des dix prochaines années
La stack électro-industrielle fait tourner le monde - Ryan McEntush
- La prochaine révolution industrielle ne se produira pas seulement dans les usines, mais aussi à l’intérieur même des machines
- Le logiciel a transformé la pensée et la conception, et transforme désormais la mobilité, la construction et la production
- Une convergence s’opère entre l’électrification, les matériaux et l’IA
- Un véritable contrôle logiciel du monde physique devient possible
- Les machines perçoivent, apprennent et agissent par elles-mêmes
- C’est cela, la stack électro-industrielle (electro-industrial stack)
- La technologie de base des véhicules électriques, des drones, des data centers et de la fabrication moderne
- Elle relie les technologies qui déplacent les atomes et les bits
- Les composants de la stack
- Raffinage des minéraux → composants
- Énergie stockée dans les batteries
- Électricité contrôlée par l’électronique de puissance
- Mouvement transmis par des moteurs de précision
- Logiciel qui orchestre l’ensemble
- C’est le socle invisible de l’automatisation physique, qui fait la différence entre le logiciel qui appelle un taxi et le logiciel qui tient le volant
- La capacité à construire cette stack s’affaiblit : raffinage des matériaux critiques & fabrication de puces avancées
- Pour que les États-Unis dirigent la prochaine ère industrielle, il leur faut fabriquer eux-mêmes le hardware
- Le pays qui maîtrise la stack électro-industrielle déterminera l’avenir des technologies industrielles et militaires
- Le logiciel a dévoré le monde. Désormais, il le met en mouvement
Les laboratoires autonomes accélèrent la découverte scientifique - Oliver Hsu
- Les capacités des modèles progressent dans l’ensemble du multimodal
- Les capacités de manipulation robotique continuent elles aussi de s’améliorer
- La combinaison de ces deux tendances fait émerger les laboratoires autonomes
- Formulation d’hypothèses - conception des expériences - exécution - raisonnement et analyse des résultats - itération sur la prochaine direction de recherche
- La boucle end-to-end de la découverte scientifique se referme automatiquement
- Les équipes qui construisent ces laboratoires sont par nature interdisciplinaires : IA, robotique, sciences physiques et du vivant, fabrication, opérations
- Les expériences sans personnel sur site (lights-out) rendent possible l’expérimentation continue
- Le rythme des découvertes s’accélère fortement dans de nombreux domaines
La croisade des données vers les industries critiques - Will Bitsky
- En 2025, le discours sur l’IA s’est concentré sur les contraintes de calcul et les data centers
- En 2026, l’enjeu central sera celui des contraintes de données et d’un nouveau champ de bataille de la donnée : les industries critiques
- Dans ces industries sommeillent encore d’immenses volumes de données non structurées : exploitation de camions, relevés de compteurs, opérations de maintenance, procédés de production, assemblage et tests, etc.
- Tous ces processus deviennent des données d’entraînement pour les modèles ; non seulement ce qui a été fait compte, mais aussi comment cela a été fait
- Le problème, c’est que les sites industriels manquent encore d’une culture de la donnée : collecte, annotation et entraînement de modèles ne font pas partie de leur vocabulaire
- La demande en données explose
- Scale, Mercor et les laboratoires d’IA collectent agressivement des données de processus
- En s’appuyant sur des données manuelles coûteuses
- Les entreprises industrielles historiques disposent d’un avantage structurel
- Elles possèdent déjà l’infrastructure physique et la main-d’œuvre
- Elles peuvent collecter des données à coût marginal quasi nul
- Elles peuvent entraîner leurs propres modèles ou concéder des licences à des tiers
- Les startups les accompagnent
- Logiciels de collecte, d’annotation et de gestion du consentement
- Hardware de capteurs et SDK
- Environnements de reinforcement learning et pipelines d’entraînement
- Et, à terme, jusqu’à leurs propres machines intelligentes
# [Apps]
L’IA renforce le business model lui-même - David Haber
- Les grandes startups IA ne se contentent pas d’automatiser le travail : elles amplifient directement la structure économique de leurs clients
- Prenons l’exemple d’un cabinet d’avocats rémunéré au succès
- Il ne génère des revenus qu’en cas de victoire
- Une entreprise comme Eve utilise les données sur les résultats des affaires pour prédire les probabilités de succès
- Elle choisit de meilleurs dossiers, traite davantage de clients et gagne plus souvent
- L’IA ne reste pas un simple outil de réduction des coûts : elle augmente directement le chiffre d’affaires
- En 2026, cette logique se diffusera dans l’ensemble des secteurs
- L’IA s’alignera plus profondément sur les incitations des clients
- Et créera un avantage concurrentiel cumulatif que les logiciels traditionnels ne pourront pas rattraper
ChatGPT devient un App Store de l’IA - Anish Acharya
- Les cycles des produits grand public exigent trois éléments
- Une nouvelle technologie
- Un nouveau comportement des consommateurs
- Un nouveau canal de distribution
- L’IA remplissait les deux premières conditions, mais n’avait pas de canal de distribution propre et dépendait de réseaux existants comme X ou du bouche-à-oreille
- La situation change
- Publication de l’Apps SDK d’OpenAI
- Prise en charge des mini-apps par Apple
- Introduction de la messagerie de groupe dans ChatGPT
- Les développeurs peuvent désormais accéder directement aux 900 millions d’utilisateurs de ChatGPT
- Et se développer avec de nouveaux réseaux de mini-apps comme Wabi
- Avec cette dernière pièce du puzzle, la tech grand public pourrait connaître en 2026 une ruée vers l’or qui n’arrive qu’une fois par décennie
Les agents vocaux passent véritablement à l’échelle - Olivia Moore
- Au cours des 18 derniers mois, l’IA vocale est passée de la science-fiction à la réalité : prise de rendez-vous, traitement des réservations, enquêtes, gestion des demandes entrantes
- Elle est déjà largement utilisée, des SMB jusqu’aux grandes entreprises
- Les bénéfices sont clairs : baisse des coûts, création de revenus additionnels, et les humains se concentrent sur des tâches à plus forte valeur ajoutée
- Beaucoup d’entreprises en sont encore au stade des point solutions, en ne traitant que certains types d’appels
- L’étape suivante est un déploiement à grande échelle
- Prise en charge de workflows complets
- Interactions multimodales
- Gestion de l’ensemble de la relation client
- Cela nécessite des agents profondément intégrés aux systèmes métiers et autorisés à gérer de manière autonome des interactions plus complexes
- Tant que les performances des modèles continuent de progresser, rien ne justifie que toutes les entreprises n’exploitent pas une IA voice-first
L’émergence d’applications proactives, sans prompt - Marc Andrusko
- 2026 marque la fin de la zone de saisie des prompts
- La prochaine génération d’apps IA fonctionnera sans entrée explicite : elles observeront les actions des utilisateurs et proposeront des suggestions de manière proactive
- Exemples
- Un IDE propose un refactoring avant même qu’on le demande
- Un CRM rédige un email de suivi dès la fin d’un appel
- Un outil de design génère des variantes pendant le travail
- L’interface conversationnelle n’était qu’une paire de petites roues
- L’IA devient désormais une structure invisible disséminée dans tout le workflow
- Elle réagit non pas à des commandes, mais à l’intention
L’IA reconstruit les fondations de la banque et de l’assurance - Angela Strange
- Les acteurs financiers traditionnels ont jusqu’ici superposé l’IA à des systèmes legacy : reconnaissance de documents, agents vocaux
- La vraie transformation se produit quand on reconstruit l’infrastructure elle-même
- En 2026, le risque de ne pas adopter l’IA deviendra plus grand que le risque d’échec
- Les grandes institutions financières mettront fin à leurs contrats avec des fournisseurs legacy pour passer à des alternatives AI-native
- Les nouvelles plateformes financières se caractérisent par la centralisation, la normalisation et l’enrichissement des données legacy et externes
- Résultats
- Parallélisation massive des workflows
- Traitement des opérations sans passer d’un système à l’autre
- Vue d’ensemble sur des centaines de tâches, dont certaines sont traitées automatiquement par des agents
- La catégorie elle-même se consolide
- Exemple : le KYC et le monitoring des transactions convergent vers une plateforme de risque unifiée
- Les gagnants deviendront des entreprises 10 fois plus grandes qu’aujourd’hui
- Le logiciel remplace le travail humain
- L’avenir de la finance ne consiste pas à ajouter de l’IA à des systèmes existants, mais à créer un nouveau système d’exploitation fondé sur l’IA
Une stratégie forward-deployed diffuse l’IA aux 99 % - Joe Schmidt
- Jusqu’ici, les bénéfices de l’IA se sont concentrés dans le 1 % de la Silicon Valley, en raison de la proximité géographique et des réseaux de VC
- En 2026, cette dynamique s’inversera : la majorité des opportunités liées à l’IA se trouve hors de la Silicon Valley
- Les nouveaux fondateurs identifieront les opportunités au sein des industries legacy grâce à une approche forward-deployed
- Domaines particulièrement prometteurs :
- Le conseil traditionnel
- L’intégration de systèmes
- Les secteurs lents comme l’industrie manufacturière
Une nouvelle couche d’orchestration et de nouveaux rôles émergent dans le Fortune 500 - Seema Amble
- Les entreprises passent d’un outil d’IA unique à des systèmes multi-agents
- Les agents doivent collaborer comme une équipe numérique. Ils planifient, analysent et exécutent ensemble
- Pour cela, elles repensent la structure du travail et le flux de contexte entre les systèmes
- AskLio et HappyRobot déploient déjà des agents non plus sur une tâche unique, mais sur le processus complet
- Les Fortune 500 connaissent la transformation la plus profonde : des données massivement cloisonnées et des connaissances tacites jusque-là dans la tête des gens
- En les transformant en base partagée, il devient possible d’accélérer la prise de décision, de raccourcir les cycles et d’avoir des processus de bout en bout sans intervention humaine
- De nouveaux rôles émergent : concepteur de workflows IA, superviseur d’agents, responsable de la gouvernance
- Un système de coordination s’ajoute au-dessus du système of record
- Les humains se concentrent sur les cas limites les plus complexes
- Le multi-agent n’est pas une simple automatisation : il reconfigure la manière même dont l’entreprise fonctionne
L’IA grand public passe de « aide-moi » à « vois-moi » - Bryan Kim
- 2026 sera l’année où l’IA grand public passera de la productivité à la connexion
- L’IA ne se contente plus d’aider à travailler : elle permet aussi de mieux se comprendre et de renforcer les relations
- C’est un domaine difficile. Beaucoup d’IA sociales ont échoué
- Mais le contexte change : extension du contexte multimodal, baisse du coût du raisonnement
- L’IA apprend désormais les émotions dans les photos, les schémas de conversation et les changements de routine liés au stress
- Caractéristiques des produits « see me »
- faible disposition à payer à court terme
- forte rétention
- Les gens échangent déjà leurs données contre de la valeur
- bientôt, la contrepartie deviendra suffisamment importante
De nouvelles primitives de modèles rendent possibles des entreprises qui ne l’étaient pas - Kimberly Tan
- Les récentes innovations dans les modèles font émerger des entreprises qui n’auraient auparavant pas pu exister
- Par le passé, il s’agissait surtout d’améliorer des produits existants
- Désormais, la fonction centrale même du produit devient possible grâce à de nouvelles capacités des modèles
- Exemples
- jugements complexes sur la facturation financière
- analyse de vastes corpus universitaires et de recherche
- extraction de données vidéo sur des sites de production
- automatisation de tâches dissimulées derrière des bureaux virtuels et des API médiocres
- Le raisonnement, le multimodal et l’usage de l’ordinateur transforment la structure de gigantesques secteurs
Les startups IA qui prennent pour clients des startups IA vont croître - James da Costa
- Nous vivons actuellement une explosion entrepreneuriale sans précédent
- Les entreprises établies adoptent elles aussi l’IA rapidement
- La manière pour les startups de gagner consiste à prendre pour clients des entreprises en phase de formation
- En sécurisant très tôt de jeunes entreprises, elles grandissent avec elles à mesure que leurs clients se développent
- Stripe, Deel, Mercury et Ramp ont utilisé cette stratégie
- Beaucoup de clients de Stripe sont nés après Stripe
- 2026 sera l’année où les startups ayant choisi une stratégie greenfield commenceront réellement à changer d’échelle dans plusieurs segments du logiciel d’entreprise
- Le principe est simple :
- créer un meilleur produit
- s’obséder pour de nouveaux clients qui ne sont pas déjà verrouillés ailleurs
# [Crypto]
La confidentialité devient le moat le plus important dans la crypto
- Pour que la finance on-chain devienne grand public, la confidentialité est indispensable
- Or, sur la plupart des blockchains, la confidentialité était en pratique absente ou reléguée au second plan
- Désormais, la seule confidentialité peut suffire à différencier clairement une chaîne
- La confidentialité n’est pas une simple fonctionnalité : elle peut créer un chain lock-in
- particulièrement puissant dans un monde où la seule compétition sur la performance ne suffit plus
- Se déplacer entre chaînes publiques est facile grâce au bridging
- mais avec la confidentialité, la situation change
- même si les tokens se déplacent facilement, les secrets se déplacent difficilement
- Les risques liés au passage dans et hors des espaces privés
- ceux qui surveillent le trafic de la chaîne, du mempool ou du réseau peuvent inférer une identité
- au moment de franchir une frontière (privé↔public, privé↔privé), il y a fuite de métadonnées
- le timing des transactions, les corrélations de taille, etc. deviennent des indices de traçage
- Avec la concurrence, les frais tendent facilement vers 0
- le blockspace devient de plus en plus commoditisé
- donc une « nouvelle chaîne sans aucun trait distinctif » a du mal à créer de forts effets de réseau
- À l’inverse, les chaînes axées confidentialité ont plus de potentiel pour générer de puissants effets de réseau
- Si une chaîne généraliste
- n’a pas déjà un écosystème florissant
- n’a pas de killer app
- n’a pas d’avantage de distribution injuste
il y a peu de raisons de l’utiliser, de la créer ou de lui rester fidèle
- Sur les chaînes publiques, « sur quelle chaîne on est » compte moins
- il est facile de traiter avec les utilisateurs d’autres chaînes
- Sur les chaînes privées, « dans quelle chaîne on entre » compte beaucoup plus
- le risque d’exposition lors d’un transfert augmente, ce qui réduit l’attrition
- Au final, les chaînes privées peuvent créer une dynamique proche du winner-takes-all
- si la plupart des usages du monde réel exigent de la confidentialité
- quelques chaînes privées pourraient capter l’essentiel de la crypto
Les marchés prédictifs vont devenir plus grands, plus larges et plus intelligents
- Les marchés prédictifs sont déjà entrés dans une phase d’adoption grand public
- L’an prochain, en se combinant avec la crypto et l’IA, ils gagneront simultanément en taille, en portée et en intelligence
- Beaucoup plus de contrats seront cotés
- non seulement sur les grandes élections et les enjeux géopolitiques
- mais aussi sur des résultats de plus en plus complexes et des événements interdépendants, accessibles sous forme de probabilités en temps réel
- Les informations issues des marchés prédictifs s’intègrent déjà plus profondément dans l’écosystème médiatique
- En même temps, les questions sociétales prennent de l’ampleur
- comment équilibrer la valeur et les risques de ces informations
- comment rendre leur conception plus transparente et auditable
- la crypto peut rendre cela possible (en supposant un futur billet lié)
- À mesure que le nombre de contrats augmente, la manière de « s’accorder sur la vérité » devient le goulot d’étranglement
- l’arbitrage centralisé (un événement s’est-il vraiment produit, comment le vérifier) devient crucial
- mais les cas litigieux montrent les limites
- Pour passer à l’échelle, il faut de nouveaux mécanismes capables de gérer les cas litigieux
- gouvernance décentralisée
- oracles LLM (pour aider à trancher la « vérité » de résultats controversés)
- L’IA élargit aussi le champ côté trading, au-delà des seuls oracles
- des agents traders peuvent agréger les signaux du monde pour créer un avantage de court terme
- (des tendances comme Prophet Arena en donnent un aperçu)
- Les marchés prédictifs ne remplacent pas les sondages
- en revanche, ils peuvent améliorer les sondages
- les données de sondage peuvent aussi alimenter les marchés prédictifs
- L’un des défis clés est la « preuve d’humanité »
Revoir la tokenisation des RWA et les stablecoins de façon plus crypto-native
- Les banques / fintechs / sociétés de gestion d’actifs
- Mais la tokenisation actuelle est souvent skeuomorphic
- elle se contente de reproduire tel quel le concept existant des actifs du monde réel
- sans exploiter pleinement les capacités propres à la crypto
- En alternative, les actifs synthétiques, notamment les contrats perpétuels (perps), sont puissants
- liquidité plus profonde
- mise en œuvre souvent plus simple
- effet de levier intuitif
- forte probabilité d’être le cas de PMF le plus solide parmi les dérivés crypto natifs
- Expérience intéressante : la « perpification » d’actions de marchés émergents
- sur certaines valeurs, les options 0DTE affichent parfois une liquidité plus profonde que le spot
- ce qui peut en faire des candidats attractifs pour des expérimentations de perpification
- Au final, la question est « perpification vs tokenisation »
- quelle que soit la forme retenue, 2026 pourrait voir croître des flux RWA plus crypto natifs
- Pour les stablecoins aussi, l’origination devient plus importante que la « tokenisation »
- en 2025, les stablecoins sont entrés dans le courant dominant et les encours en circulation continuent d’augmenter
- Un stablecoin sans solide infrastructure de crédit ressemble à une narrow bank
- un modèle bancaire très étroit, qui ne détient que des actifs liquides très sûrs
- c’est un produit valable, mais insuffisant pour devenir la colonne vertébrale de long terme de l’économie on-chain
- D’où l’intérêt, pour les « actifs de dette », de les créer
- directement on-chain via l’origination, plutôt que de les produire off-chain puis de les tokeniser
- réduction des coûts de service de prêt et des coûts structurels de back-office
- accessibilité accrue
- La grande difficulté restante est celle de la compliance et de la standardisation
- mais des builders travaillent déjà activement à la résoudre
Le trading n’est pas le terminus, mais une étape
- Hormis les stablecoins et une partie des infrastructures cœur
- une part importante des entreprises crypto qui performent ont pivoté vers le trading, ou sont en train de le faire
- Le problème quand tout le monde devient une plateforme de trading
- les acteurs s’homogénéisent et la notoriété comme les opportunités s’érodent
- cela tend à ne laisser que quelques grands gagnants
- les équipes qui pivotent trop vite risquent de manquer l’occasion de bâtir une activité réellement défendable
- La quête d’une sensation immédiate de PMF a un coût
- en particulier dans la crypto, où la structure token / spéculation pousse à la gratification instantanée
- et peut entraîner vers la « transaction » de court terme plutôt que vers la construction d’un « produit » durable
- Le trading reste en soi une fonction de marché importante
- mais il n’a pas besoin d’être la « destination finale »
- Les plus grands gagnants pourraient être
Du KYC au KYA : connaître non pas le client, mais l’agent
- Le goulet d’étranglement de l’économie des agents se déplace de l’intelligence vers l’identité
- Dans les services financiers, les « identités non humaines » sont désormais 96 fois plus nombreuses que les employés humains
- mais ces identités sont en pratique traitées comme des fantômes hors du système bancaire
- Le primitive clé nécessaire est le KYA (Know Your Agent)
- tout comme les humains ont besoin d’un score de crédit
- les agents ont eux aussi besoin, pour transacter, de credentials signés cryptographiquement
- reliés au principal de l’agent
- précisant contraintes et responsabilité (liability)
- Sans KYA, la réalité est simple
- les commerces et services continueront à bloquer les agents au niveau du firewall
- Une industrie qui a passé des décennies à construire l’infrastructure KYC
- doit maintenant construire le KYA en quelques mois
Les on-ramps et off-ramps des stablecoins deviennent plus intelligents
- Le volume des stablecoins est estimé à environ 46 000 milliards de dollars l’an dernier
- et continue d’inscrire de nouveaux records
- point de comparaison : plus de 20 fois PayPal, proche de 3 fois Visa, et en train de rattraper rapidement l’ACH américain
- Techniquement, « envoyer » est déjà devenu simple
- Le principal problème non résolu qui subsiste est la connexion avec les rails financiers du monde réel
- autrement dit, les on-ramps et off-ramps des stablecoins
- Une nouvelle génération de startups comble cette faille
- en se connectant aux systèmes de paiement familiers et aux devises locales
- en échangeant soldes locaux ↔ dollars numériques tout en préservant la vie privée via des preuves cryptographiques
- en intégrant des règlements interbancaires via des rails de paiement en temps réel ou fondés sur des QR codes
- en ajoutant une couche mondiale de wallet et l’émission de cartes pour dépenser des stablecoins chez les commerçants du quotidien
- Quand les on-ramps et off-ramps mûrissent, de nouveaux comportements apparaissent
- versement en temps réel de salaires transfrontaliers
- encaissement de « dollars globaux » même sans compte bancaire
- règlement instantané d’utilisateurs du monde entier par les applications
- Les stablecoins passent ainsi d’un outil financier de niche
- à une couche de paiement et de règlement fondamentale de l’internet
Les stablecoins ouvrent un cycle de mise à niveau des registres bancaires et de nouveaux scénarios de paiement
- Les systèmes bancaires core ressemblent, du point de vue d’un développeur moderne, à des « artefacts archéologiques »
- années 1960-1970 : adoption précoce de grands systèmes
- années 1980-1990 : deuxième génération de core banking (Temenos GLOBUS, Infosys Finacle, etc.)
- aujourd’hui encore, les registres centraux reposent souvent sur des mainframes, COBOL et des interfaces de fichiers batch
- La majeure partie des actifs mondiaux repose sur ces anciens registres core
- ils inspirent confiance aux régulateurs
- sont profondément intégrés dans des scénarios opérationnels complexes
- tout en ralentissant fortement l’innovation
- même l’ajout de fonctions comme le RTP peut prendre de quelques mois à plusieurs années
- Les stablecoins permettent d’innover « sans devoir démolir immédiatement l’héritage existant »
- stablecoins, dépôts tokenisés, bons du Trésor tokenisés, obligations on-chain, etc.
- deviennent une voie pour que banques et fintechs créent de nouveaux produits et attirent de nouveaux clients
- Ces dernières années ont été la période où les stablecoins ont trouvé leur PMF et sont entrés dans le mainstream
- Et cette année, la TradFi les a adoptés à un niveau supérieur
- Conclusion : les stablecoins deviennent un canal d’innovation qui contourne les registres legacy
L’avenir proche de la messagerie ne sera pas seulement résistant au quantique, il sera aussi décentralisé
- La préparation à l’informatique quantique est importante
- Mais le problème plus fondamental est celui de la confiance dans le serveur
- les grandes messageries comme Apple / Signal / WhatsApp
- exigent au final de faire confiance à des serveurs privés opérés par une organisation unique
- ce qui laisse subsister une vulnérabilité : les gouvernements peuvent bloquer, backdoorer ou contraindre ces serveurs
- Si le serveur est au centre du modèle de confiance, on en revient à « trust me »
- à l’inverse, sans serveur privé, on arrive à « pas besoin de faire confiance »
- La messagerie doit évoluer vers des protocoles ouverts
- sans serveur privé
- sans application unique
- entièrement open source
- avec un chiffrement de tout premier niveau, y compris face aux menaces quantiques
- Si le réseau est ouvert
- aucun État ni aucune entreprise ne peut facilement priver les gens de leur capacité à communiquer
- même si une application est bloquée, 500 autres peuvent réapparaître dès le lendemain
- même si des nœuds sont coupés, les incitations économiques peuvent en faire émerger de nouveaux
- Quand les messages et l’identité sont possédés via des clés, comme l’argent, cela change complètement la donne
- les applications peuvent changer, mais le contrôle des messages et de l’identité reste entre les mains de l’utilisateur
- Au final, l’enjeu central dépasse la « cryptographie résistante au quantique » pour toucher à la propriété et à la décentralisation
De « le code fait loi » à « la spec fait loi »
- Les récents piratages de la DeFi
- ont touché même des équipes solides, des audits rigoureux et des protocoles en production depuis des années
- Les pratiques de sécurité actuelles restent
- centrées sur des heuristiques
- proches d’un colmatage au cas par cas
- Pour que la sécurité DeFi gagne en maturité, il faut changer de cap
- passer d’une réponse aux motifs de bugs à des propriétés au niveau de la conception
- passer du best-effort à une approche fondée sur des principes
- Côté pré-déploiement (statique)
- il faut démontrer systématiquement des invariants globaux, et non faire une simple vérification partielle
- les outils de preuve assistés par l’IA
- rédigent les spécifications
- proposent des invariants
- réduisent le coût de l’ingénierie de preuve manuelle
- Côté post-déploiement (dynamique)
- les invariants servent de garde-fous à l’exécution
- ils sont encodés comme des assertions d’exécution que chaque transaction doit satisfaire
- Au lieu d’espérer que « tous les bugs auront été détectés »
- les transactions qui violent des propriétés de sécurité essentielles sont automatiquement annulées
- En pratique, la plupart des exploits
- auraient probablement été arrêtés par ce type de vérification en cours d’exécution
- Ainsi, « code is law » évolue vers « spec is law »
- même de nouvelles attaques doivent respecter les mêmes propriétés de sécurité
- les attaques possibles deviennent donc réduites ou très difficiles
La crypto apporte de nouvelles primitives utilisables aussi hors de la blockchain
- Les SNARKs ont longtemps été quasi réservés à la blockchain
- des preuves cryptographiques vérifiables sans réexécuter le calcul
- mais avec un surcoût bien trop élevé, pouvant aller jusqu’à 1 000 000x
- En 2026, les provers zkVM pourraient
- descendre à un surcoût d’environ 10 000x
- avec une empreinte mémoire ramenée à quelques centaines de Mo
- assez légers pour tourner sur téléphone et assez bon marché pour être utilisés partout
- Pourquoi 10 000x peut être le « chiffre magique »
- un GPU haut de gamme offre grosso modo un parallélisme environ 10 000 fois supérieur à celui d’un CPU de laptop
- fin 2026, un seul GPU pourrait générer en temps réel la preuve d’une exécution CPU
- La vision rendue possible par cet ancien article : le cloud computing vérifiable
- beaucoup de charges CPU sont exécutées dans le cloud
- parce qu’elles ne sont pas assez lourdes pour être portées sur GPU
- ou faute d’expertise
- ou pour des raisons de legacy
- on peut leur adjoindre une preuve de correction à un coût raisonnable
- les provers étant déjà optimisés pour GPU, le code applicatif peut rester inchangé
Utiliser l’IA pour un vrai travail de recherche
- Encore au début de cette année, l’IA grand public comprenait mal les workflows de recherche
- Quelques mois plus tard, on peut donner à l’IA des consignes abstraites du type de celles qu’on donnerait à un doctorant
- et obtenir parfois des réponses nouvelles et correctement réalisées
- Dans un mouvement plus large, l’usage de l’IA dans la recherche progresse
- On ne sait pas encore dans quels domaines l’impact sera le plus fort
- Mais un nouveau style de recherche, plus polymathe, pourrait être avantagé
- en formulant des hypothèses sur les relations entre idées
- en valorisant la capacité à extrapoler rapidement à partir de réponses incomplètes
- même si certaines réponses sont imprécises, la direction peut rester juste
- Paradoxalement, il y a aussi une façon d’exploiter les « hallucinations »
- si les modèles deviennent assez intelligents, leur flottement libre
- produit parfois des absurdités, mais peut aussi ouvrir des brèches vers la découverte
- Le workflow nécessaire pour cela
- non pas un agent unique, mais une architecture d’agents enveloppant d’autres agents
- où un modèle évalue et synthétise les essais et résultats d’un autre
- Exemples d’usage concrets
- rédaction d’articles : write papers
- recherche de brevets, création artistique
- et, malheureusement, découverte d’attaques contre les smart contracts
- Pour faire tourner des ensembles d’agents de recherche, il faut
Une taxe invisible s’applique au web ouvert
- Les agents IA imposent une taxe invisible au web ouvert
- Le cœur du problème est un décalage entre deux couches d’Internet
- la couche de contexte : les données sont fournies par des sites financés par la publicité
- la couche d’exécution : des agents extraient ces données pour offrir de la commodité à l’utilisateur
- au final, ils contournent des sources de revenus comme la publicité ou l’abonnement, ce qui affaiblit la base
- Si le web ouvert s’effondre
- la diversité et la richesse du contenu dont se nourrit l’IA diminueront aussi
- La solution nécessaire est un déploiement massif de réponses à la fois techniques et économiques
- contenus sponsorisés de nouvelle génération
- micro-attribution (suivi des contributions)
- nouveaux modèles de financement
- Les accords de licence IA actuels
- risquent surtout de n’être qu’un colmatage financièrement non durable face aux pertes de trafic causées par l’IA
- Le basculement clé est
- de licences statiques vers une rémunération en temps réel basée sur l’usage
- En utilisant des nanopaiements fondés sur la blockchain et des standards d’attribution sophistiqués
- il faut expérimenter puis étendre des modèles où
- la valeur circule automatiquement vers tous les acteurs ayant contribué au travail réussi d’un agent
L’essor des médias adossés à un engagement
- Le modèle médiatique traditionnel, y compris le mythe de « l’objectivité », se fissurait déjà
- Internet a donné une voix à tout le monde
- et les opérateurs, praticiens et builders ont commencé à parler directement au public
- Le point de vue des gens reflète leurs intérêts en jeu
- paradoxalement, le public peut leur faire davantage confiance précisément parce qu’ils ont quelque chose en jeu
- La nouveauté n’est pas les « réseaux sociaux »
- mais l’arrivée d’outils cryptographiques qui permettent des engagements publiquement vérifiables
- Quand le coût de génération de contenu par l’IA tend vers zéro, la parole seule ne suffit plus, y compris face aux bots, deepfakes et faux personas
- Le socle de la confiance se déplace donc
- actifs tokenisés
- lockups programmables
- marchés prédictifs
- historique onchain
tout cela devient des signaux de confiance plus solides
- Le cœur du « staked media »
- ce n’est pas de cacher ses intérêts, mais de les exposer sous une forme vérifiable
- non plus « je suis neutre », mais « voici ce que j’ai en jeu et comment le vérifier »
- Il s’impose non pas comme un remplacement des autres médias, mais comme un signal complémentaire
Secret-as-a-service
- Tous les modèles/agents/automatisations dépendent au final des données
- Or, aujourd’hui, les pipelines de données sont souvent
- opaques
- faciles à modifier
- difficiles à auditer
- Cela peut parfois passer dans les applications grand public, mais
- dans des domaines comme la finance ou la santé, la confidentialité des données sensibles est indispensable
- c’est aussi un frein majeur pour la tokenisation des RWA
- La question centrale est celle du contrôle d’accès aux données
- qui contrôle les données sensibles
- comment elles circulent
- qui (ou quoi) y accède, et dans quelles conditions
- Aujourd’hui, pour préserver la confidentialité, il faut soit
- dépendre de services centralisés
- mettre soi-même en place une configuration sur mesure coûteuse
- ce qui empêche la TradFi de profiter des avantages de la gestion de données on-chain
- Quand les agents commencent à explorer/négocier/prendre des décisions de façon autonome, il ne suffit plus d’une « confiance de bonne foi » : il faut des garanties cryptographiques
- D’où le besoin de secrets-as-a-service
- des règles d’accès natives et programmables
- du chiffrement côté client
- une gestion décentralisée des clés
- l’application stricte de qui peut déchiffrer quoi, sous quelles conditions et pendant combien de temps
- avec exécution on-chain
- Combinée à des systèmes de données vérifiables,
- la confidentialité ne serait plus « une couche ajoutée à l’application »
- mais ferait partie de l’infrastructure cœur d’Internet
La gestion de patrimoine pour tous
- La gestion de patrimoine personnalisée était à l’origine un service réservé aux grandes fortunes
- parce qu’elle était coûteuse et très complexe à opérer
- À mesure que davantage d’actifs seront tokenisés,
- l’exécution des stratégies et le rééquilibrage sur des rails crypto deviendront instantanés et peu coûteux
- la personnalisation sera renforcée par les recommandations et copilotes IA
- Il ne s’agit pas simplement de robo-advisors
- chacun pourra accéder non pas à une approche « passive », mais à une gestion de portefeuille active
- En 2025, la TradFi a commencé à augmenter son exposition à la crypto
- En 2026, les plateformes optimisées non pas pour la « préservation du patrimoine », mais pour l’accumulation de richesse vont gagner du terrain
- des fintechs comme Revolut ou Robinhood
- des CEX comme Coinbase élargiront leur marché grâce à l’avantage de leur stack technologique
- Côté DeFi,
- des outils comme Morpho Vaults proposent une allocation automatique selon le rendement ajusté du risque
- ce qui peut devenir le segment central de rendement d’un portefeuille
- Les actifs assimilables au cash vont eux aussi évoluer
- détention de stablecoins plutôt que de monnaie fiat
- détention de MMF tokenisés plutôt que de MMF traditionnels
- avec plus de marge pour du rendement supplémentaire et des stratégies
- La tokenisation élargit aussi l’accès aux actifs privés
- crédit privé, pre-IPO, fonds de private equity, etc.
- avec davantage de liquidité tout en maintenant la conformité et le reporting
- Une fois les composantes d’un patrimoine tokenisées,
- le rééquilibrage automatique devient possible sans virement bancaire
Internet devient une banque
- Avec l’arrivée massive des agents,
- et l’essor du commerce automatisé en arrière-plan plutôt qu’au clic,
- la façon dont l’argent (la valeur) circule doit changer
- Si les systèmes fonctionnent à partir d’intentions plutôt que d’instructions détaillées étape par étape,
- alors la valeur devra elle aussi circuler aussi vite et librement que l’information
- Les blockchains, les smart contracts et de nouveaux protocoles en forment la base
- Les smart contracts permettent déjà
- de régler des paiements en dollars dans le monde entier en quelques secondes
- En 2026, avec des primitives comme x402,
- les paiements deviendront programmables et réactifs
- Scénarios possibles
- des agents se paient instantanément entre eux pour des données, du GPU ou des appels d’API
- sans facture, sans rapprochement, sans batch et sans autorisation
- des règles de paiement, des plafonds et des pistes d’audit sont intégrés aux mises à jour logicielles
- sans raccordement au fiat, onboarding marchand ou intégration bancaire
- des marchés prédictifs s’auto-règlent en temps réel au fil du déroulement des événements
- À ce niveau, les flux de paiement ne sont plus une couche opérationnelle distincte, mais un comportement du réseau
- Les banques deviennent la plomberie de base d’Internet
- et les actifs deviennent une infrastructure
- Quand l’argent devient un paquet que l’Internet peut router,
- l’Internet ne se contente plus de « soutenir » le système financier
- il devient le système financier lui-même
Le potentiel de la blockchain se libère quand les structures juridiques rattrapent les structures techniques
- L’une des principales raisons pour lesquelles il a été si difficile de construire des réseaux aux États-Unis au cours des dix dernières années est l’incertitude juridique
- Le droit des valeurs mobilières a de force plaqué un cadre centré sur l’« entreprise » sur les « réseaux »,
- ce qui a conduit à une application sélective des règles
- Résultat
- l’atténuation du risque juridique est passée avant la stratégie produit
- et les avocats se sont retrouvés au premier rang avant les ingénieurs
- Les effets pervers de cette distorsion
- on conseillait d’éviter la transparence
- la distribution est devenue juridiquement arbitraire
- la gouvernance est devenue du théâtre
- les structures organisationnelles ont été orientées vers une optimisation du bouclier juridique
- les tokens ont été conçus pour éviter toute valeur économique ou ont eu du mal à soutenir un modèle économique
- et des projets ignorant les règles ont parfois avancé plus vite que des builders de bonne foi
- Mais une régulation de la structure du marché a le potentiel de changer la donne
- le gouvernement n’a jamais été aussi proche de son adoption
- Les changements attendus si elle est adoptée
- des incitations à la transparence
- des critères clairs
- la fin de la « roulette de l’application coercitive »
- des voies structurées pour le financement, le lancement de tokens et la décentralisation
- Tout comme GENIUS a déclenché une explosion de l’adoption des stablecoins, une régulation de la structure du marché pourrait produire un changement bien plus profond pour les « réseaux »
- En conclusion
- lorsque les structures juridiques s’alignent sur les structures techniques
- les réseaux blockchain peuvent fonctionner comme de véritables réseaux
- et l’ouverture, l’autonomie, la composabilité, la neutralité crédible et la décentralisation deviennent une réalité
Aucun commentaire pour le moment.