64 points par GN⁺ 2026-02-09 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Cette année marque la fin de la phase de nouveauté de l’IA générative, et il n’est plus possible d’attendre en observateur. Individus, entreprises et métiers arrivent à un point de bascule où il faut s’adapter délibérément ou choisir d’être dépassé
  • Le centre de la compétition dans l’IA se déplace vers les agents autonomes, les UI déléguées et les interfaces génératives, et les logiciels cessent d’être des outils qui attendent un clic pour devenir des systèmes qui agissent avec nous
  • Avec la diffusion des modèles du monde multimodaux et de l’IA physique, les UI statiques et les outils à usage unique deviennent obsolètes, tandis que la conception de l’UX, de la confiance et des interfaces d’audit émerge comme un fossé concurrentiel clé pour les entreprises
  • À mesure que les contraintes de calcul deviennent une condition permanente, la pénurie d’inférence et les paliers payants/gratuits se figent, et la conception des produits et des workflows se réorganise en partant du principe de coûts, de quotas et de limitations de vitesse
  • La valeur humaine se déplace de la production de livrables vers la définition des objectifs, le jugement, la vérification et la responsabilité ; pour ceux qui auront compris et préparé cette transition, 2026 ne sera pas une crise mais l’année la plus passionnante

Prédiction 1 : l’accélération d’un changement incessant

  • Le changement n’évolue plus à un rythme constant, il est désormais en accélération
  • Un CIO a déclaré à Deloitte que « le temps nécessaire pour étudier une nouvelle technologie dépasse la fenêtre de pertinence de cette technologie »
  • Selon les données de METR, l’horizon temporel des tâches réalisables de manière autonome s’élargit
    • 2019 (GPT-2) : l’IA traitait l’équivalent d’une tâche humaine de 3 secondes
    • Début 2025 : l’équivalent d’une tâche humaine de 1,5 heure
    • Fin 2025 (Claude Opus 4.5) : exécution autonome de tâches représentant environ 5 heures de travail d’un expert humain
  • Le cycle de doublement de la croissance s’est encore accéléré, passant de 7 mois à 4 mois
  • D’ici fin 2026, l’IA pourrait être capable d’exécuter de manière autonome des tâches correspondant à 39 heures de travail humain
    • En incluant le temps non productif, comme les réunions, cela approche l’équivalent d’une semaine de travail
  • D’ici fin 2027, elle pourrait atteindre un niveau où elle traite en environ 1 heure l’équivalent de deux mois de travail humain
    • Avec l’hypothèse d’un coût de calcul d’environ 100 $
  • D’ici fin 2030 (date estimée de la superintelligence), elle pourrait traiter en une journée l’équivalent d’environ 100 ans de travail humain
    • Une personne ne consacre pas 100 ans à un seul projet, mais une équipe peut atteindre l’équivalent de 100 années-personnes
    • Exemple d’un travail de 100 années-personnes : le tournage et le montage d’un film Bollywood à « budget intermédiaire », avec un budget actuel de ₹75 crore = ~$9M USD
    • Un film Hollywood « à gros budget » (coût de production actuel de $200M) pourrait vers 2032 devenir réalisable en une journée pour 200 $
  • En prenant la création d’infographies comme exemple, Nano Banana Pro traite une infographie basée sur un article en moins d’une minute
    • En 5 minutes, il a généré 16 variantes, dont la moitié contenait trop d’erreurs pour être publiées
    • Au final, 2 ont été retenues, pour un coût total de 0,48 $
    • En dehors du processus de sélection et de comparaison, le coût pourrait être encore plus bas
  • Exemple d’une semaine de travail humain : dans le cas d’un test d’utilisabilité « discount », l’IA pourrait ne pas encore bien détecter les problèmes d’utilisabilité via l’observation des comportements d’ici fin 2026
    • En revanche, elle pourrait exécuter l’ensemble de la procédure de test utilisateur
    • Autre exemple de tâche d’une semaine : la rédaction d’un contrat commercial complexe par un avocat, ou la création d’un court comic de super-héros de l’« âge d’argent » (généralement 10 pages)
  • Il est déjà possible aujourd’hui de produire un comic de 14 pages avec Nano Banana Pro, mais cela demande encore beaucoup d’intervention humaine à plusieurs étapes
    • « task duration » désigne la taille d’une tâche que l’IA peut mener jusqu’au bout de manière totalement autonome
    • La production entièrement autonome d’un comic de 10 pages pourrait devenir possible d’ici la fin de l’année, mais ce n’est pas encore le cas

Prédiction 2 : l’AGI n’arrivera pas en 2026

  • Je ne pense pas que l’intelligence artificielle générale (AGI) apparaîtra en 2026
  • Il n’existe pas de consensus sur la définition de l’AGI, et avec une définition souple on pourrait considérer qu’elle a déjà été atteinte
    • En pratique, l’IA a déjà réussi le test de Turing classique (jeu de l’imitation)
  • Avec une définition plus stricte, le critère proposé par Müller et Bostrom en 2014 est largement cité
    • « Quand une machine fonctionnant sans assistance accomplit toutes les tâches spécifiques mieux et à moindre coût qu’un travailleur humain moyen, on considère que l’AGI a été atteinte »
  • J’accorde toutefois plus d’importance à la définition proposée par François Chollet en 2019
    • « L’AGI est un système capable d’apprendre et de résoudre efficacement des problèmes nouveaux et ouverts, absents de ses données d’entraînement, avec très peu d’expérience préalable »
  • Cette définition met l’accent non pas sur la capacité à exécuter des tâches existantes, mais sur la capacité à apprendre de nouveaux problèmes
    • C’est aussi ce qui rend l’intelligence biologique puissante : sa grande capacité d’adaptation face aux changements d’environnement
  • En prenant la définition de Chollet comme référence, l’AGI pourrait ne devenir possible qu’après 2035
  • En revanche, la superintelligence (ASI) pourrait être atteinte plus tôt, autour de 2030
    • Cela désigne un état où les performances dépassent celles de tous les humains vivants sur toutes les tâches existantes
  • Paradoxalement, l’ASI pourrait arriver avant l’AGI
    • Car parmi les tâches existantes figure celle de « concevoir et implémenter une meilleure IA »
  • Une fois ce stade atteint, une auto-amélioration récursive commencera, et même sans aller jusqu’à une singularité complète, la vitesse du changement s’accélérera brutalement
  • Le cycle actuel de doublement de l’horizon des tâches de l’IA, d’environ 4 mois,
    • pourrait après l’ASI se réduire à une échelle mensuelle
    • dans ce cas, une amélioration théorique des performances d’environ 4 000 fois par an deviendrait possible

Prédiction 3 : une nouvelle loi de scaling de l’IA — incertain

  • Il est incertain qu’en 2026 apparaisse un nouveau paradigme de scaling venant s’ajouter au pré-entraînement existant, à l’apprentissage par renforcement et au calcul consacré au temps de raisonnement
  • Dans la Silicon Valley, des rumeurs circulent selon lesquelles Google DeepMind préparerait une approche liée à l’apprentissage continu (continuous learning)
  • On estime également qu’OpenAI mène des recherches impliquant non pas une simple extension du calcul, mais un changement structurel majeur
  • Les laboratoires chinois, xAI, Meta et Anthropic pourraient eux aussi tester de nouvelles approches de scaling dans des directions différentes
  • Cela dit, même sans percée de recherche, le rythme général des progrès de l’IA se maintient
    • Comme l’a montré ce qu’on appelle « The Bitter Lesson », ce sont moins les idées algorithmiques que davantage de calcul et une plus grande échelle qui ont continuellement fait progresser les performances
  • Les résultats de recherche sont difficiles à prévoir individuellement, et savoir si une percée surviendra une année donnée relève presque du hasard
    • En revanche, sur le long terme, plus les effectifs de recherche augmentent, plus la probabilité d’une percée s’élève
  • À mesure que l’investissement dans l’IA continue d’augmenter, davantage de talents très qualifiés affluent vers la recherche en IA
    • En conséquence, même si l’on ignore quand apparaîtra une nouvelle loi de scaling, la dynamique rend son apparition probable un jour ou l’autre
  • Ma conclusion est simple
    • Une nouvelle loi de scaling pourrait émerger en 2026, ou non
    • Mais à long terme, la croissance même des effectifs de recherche fonctionne comme une autre loi de scaling

Prédiction 4 : les laboratoires d’IA n’ont pas de moat

  • Au fil de 2025, il est devenu clair qu’aucun avantage technologique d’un laboratoire d’IA ne se maintient durablement
  • Lorsqu’un laboratoire démontre en premier une capacité donnée, les autres atteignent rapidement un niveau similaire en tant que fast followers ; ce schéma se répète sans cesse
  • Au début de 2026, les leaders par domaine sont les suivants
    • intelligence générale : Gemini 3 Pro
    • génération d’images : Nano Banana Pro
    • génération vidéo : Veo 3.1
  • Cela dit, GPT 5.2 Pro, Seedream 4.5, Seedance 1.5 Pro et d’autres affichent eux aussi des écarts de performance limités
  • Dans la musique, la voix et les avatars, Suno, ElevenLabs et HeyGen conservent respectivement leur avance
  • Même si un modèle occupe la 1re place en décembre 2026, l’écart avec le 2e a de fortes chances de ne représenter que quelques mois
    • Il est même probable que cette avance ne survive pas au 1er trimestre 2027
  • Cette situation conduit à des conclusions pratiques contradictoires
    • Si la meilleure performance possible compte toujours, il faut être prêt à changer de fournisseur d’IA tous les quelques mois
      • Un abonnement annuel ou un verrouillage de long terme devient au contraire un risque
    • Si l’on peut tolérer un léger écart de performance, une stratégie fondée sur les remises annuelles ou les offres groupées est rationnelle pour optimiser les coûts
    • Pour un fournisseur d’IA vertical spécialisé dans un domaine précis, il est important de concevoir l’architecture en partant du principe qu’il faudra pouvoir remplacer facilement le modèle de base
      • ou utiliser une structure combinant plusieurs modèles
    • Si votre intérêt principal porte sur la génération d’images ou de vidéos
      • il est efficace d’utiliser des services agrégateurs de modèles comme Freepik, Higgsfield ou Krea
      • car les derniers modèles y sont souvent intégrés rapidement après leur mise à disposition publique

Prédiction 5 : l’UX comme facteur de différenciation des modèles d’IA

  • Les grands foundation models ont atteint une phase de convergence des modèles du point de vue de leurs capacités brutes de raisonnement
  • Pour un salarié moyen ou un consommateur ordinaire, les différences de qualité de sortie entre les grands fournisseurs d’IA sont difficiles à percevoir
  • Les avantages technologiques qui duraient autrefois plus d’un an disparaissent désormais en quelques semaines
  • En conséquence, l’expérience utilisateur (UX) s’impose comme le principal facteur de différenciation durable, à la place de l’intelligence du modèle
  • Si la compétition en 2024 se résumait à « qui a le modèle le plus intelligent ? »
  • en 2026, elle se déplace vers « qui propose les workflows les mieux conçus ? »
  • L’ère centrée sur le « chatbot généraliste », où l’on envoie un prompt et reçoit une réponse, est terminée
  • Les gagnants de 2026 seront des plateformes d’IA verticales qui, sur la base de modèles généralistes,
    • proposeront des workflows profondément adaptés à des domaines précis comme le droit, la médecine ou le refactoring de code
  • L’expression « AI wrapper », autrefois utilisée de façon méprisante,
    • en vient à désigner le modèle économique le plus puissant et le plus défendable
    • lorsqu’elle résout les problèmes d’utilisabilité du “dernier kilomètre” que les modèles bruts ne savent pas traiter
  • Ironiquement, le problème commun des grands laboratoires d’IA aujourd’hui est une très mauvaise utilisabilité
    • Quelques designers ou chercheurs existent bien
    • mais la recherche utilisateur et les insights UX ne pilotent pas la stratégie produit
  • Une grande partie du discours UX traditionnel issu de l’ère web et mobile
    • s’est figée en orthodoxie rétrograde, incapable de s’adapter aux changements de l’ère de l’IA
  • Parmi environ 2 millions de professionnels de l’UX dans le monde
    • seule une infime minorité comprend réellement la direction que prend l’AI-UX
    • selon l’estimation de l’auteur, environ 99 % restent encore ancrés dans l’ancien paradigme
  • Il existe exceptionnellement des profils comme Luke Wroblewski
    • capables de percevoir l’avenir de l’AI-UX à partir de leur expérience de l’ère du web
  • Les conditions nécessaires pour qu’un laboratoire d’IA devienne un leader de l’UX sont étonnamment simples
    • une équipe de moins de 100 experts UX à très fort potentiel suffit
    • parmi eux, seuls quelques-uns doivent être de niveau « gourou », les autres pouvant simplement se situer dans les quelques pourcents supérieurs en exécution
  • Même si l’on considère uniquement les États-Unis et la Chine
    • le vivier de recrutement pour ce type de profils est largement suffisant
  • Mais cette prédiction peut aussi se révéler fausse
    • si un laboratoire réalise, face à ses concurrents, une percée non linéaire non pas 10 % mais 10 fois meilleure
    • un nouvel « écart d’intelligence » pourrait alors apparaître, et les utilisateurs pourraient à nouveau accepter une UX médiocre

Prédiction 6 : Google AI se met de l’ordre

  • 2026 pourrait être l’année où Google construit enfin une architecture UX unifiée et cohérente sur l’ensemble de ses produits et modèles d’IA
  • Aujourd’hui, les produits IA de Google sont dispersés dans un état fragmenté à travers plusieurs services et points d’entrée
  • Un même modèle d’IA
    • est proposé à différents endroits
    • avec des fonctionnalités légèrement différentes
    • ce qui rend difficile pour l’utilisateur de comprendre quel est le parcours officiel
  • Certaines fonctions d’IA exigent pour être utilisées une configuration de facturation séparée à base de clé API
    • ce qui est de fait presque impossible pour les non-développeurs et reste très contraignant même pour les profils techniques
  • Lorsqu’un utilisateur dépasse son quota mensuel, il n’existe pas de parcours cohérent permettant d’acheter immédiatement des crédits supplémentaires
    • il reçoit à la place des messages du type « Deep Think n’est plus disponible aujourd’hui »
    • ou voit soudainement la qualité de génération d’image retomber en basse résolution
  • Dans un service d’IA digne de ce nom
    • lorsque les crédits inclus dans l’abonnement sont épuisés
    • il serait naturel de proposer l’option d’acheter immédiatement des crédits supplémentaires
  • HeyGen résout déjà ce problème avec une organisation d’environ 200 personnes
    • ce qui rend d’autant plus visible le fait que Google n’y parvienne pas
  • Tout au long de 2025, Google a lancé une série de modèles d’IA techniquement très puissants
    • mais l’utilisabilité, l’architecture entre produits, ainsi que le système de tarification et de facturation sont tous restés dans un état confus
  • Mais avec la multiplication des nouveaux services d’IA et la forte pression concurrentielle d’OpenAI, xAI, Anthropic, Meta et des fournisseurs chinois d’IA
    • Google a atteint un point limite où il devient difficile de laisser ce désordre perdurer
  • En conséquence, 2026 a de fortes chances de devenir un point d’inflexion où Google étend enfin sa compétitivité technique à l’UX, à l’architecture et au système de facturation
    pour devenir enfin une « plateforme d’IA réellement utilisable »

Prédiction 7 : la crise du compute persiste

  • En 2026 également, la crise du compute ne sera pas un simple épisode temporaire de « pénurie de GPU », mais une condition opérationnelle permanente qui définira l’ensemble de l’industrie de l’IA
  • Cette contrainte détermine directement ce que les fournisseurs d’IA peuvent lancer, comment ils peuvent le tarifer, et jusqu’à quelle échelle les clients peuvent l’exploiter
  • Les grandes entreprises de l’IA sont déjà entrées dans une guerre des infrastructures pour sécuriser du compute
    • OpenAI et SoftBank investissent directement dans les infrastructures énergétiques et de data centers via le projet « Stargate », avec notamment un site de 1,2 GW au Texas
    • xAI construit un data center de 2 GW dans le Mississippi, avec une mise en service prévue en février 2026
    • Meta a également sécurisé des accords liés au nucléaire pour soutenir ses data centers IA
  • Malgré cela, ces expansions sont très loin de suffire pour suivre la hausse de la demande
  • 2026 marque l’entrée dans une véritable phase de « Inference Famine »
  • Le paradoxe de Jevons s’applique pleinement : plus l’efficacité progresse, plus l’usage explose
    • à mesure que l’IA devient plus intelligente, elle est mobilisée non plus seulement pour du texte simple, mais pour des tâches bien plus lourdes comme les agents autonomes ou la génération vidéo
  • En conséquence, l’accès au compute se hiérarchise
    • compute premium : les modèles les plus puissants et les plus riches en contexte deviennent un palier de luxe, avec listes d’attente et flambée des tarifs pendant les heures de bureau
    • marché de masse : une IA peu coûteuse et moins performante, surtout fournie via des « éco-modèles » fortement quantifiés
  • OpenAI comme Google semblent tous deux privilégier la diffusion des éco-modèles plutôt que l’ouverture généralisée de leurs modèles haut de gamme
  • On observe déjà, dans l’industrie de l’IA, des phénomènes de « brownout » consistant à réduire les performances des modèles à l’échelle mondiale pour éviter la surchauffe des data centers pendant les vagues de chaleur
  • La vision de « l’IA partout » se heurte à la réalité de l’économie unitaire
    • les grille-pain intelligents ou les petits objets IoT ne peuvent pas supporter le coût de l’inférence cloud et ne deviendront donc pas intelligents de sitôt
  • Changement concret en 2026 :
    • la conception produit consciente du compute devient indispensable
    • la tarification par paliers, la limitation de débit, la mise en file d’attente, le traitement par lots et les incitations à l’usage hors pointe
    • ne seront plus des réponses temporaires, mais des patterns UX permanents

Prédiction 8 : les agents IA

  • 2025 devait être l’année des agents IA, mais elle s’est en réalité imposée comme l’année de la génération d’images et de vidéos
  • 2026 a de fortes chances d’être l’année où l’IA commencera réellement à fonctionner sous forme d’agents
  • L’IA passera d’un outil de chat passif attendant un prompt à un système agentique actif qui planifie, exécute et itère par lui-même
  • Du point de vue de l’UX aussi, une transition s’opère du conversationnel vers la délégation
    • UI conversationnelle : poser des questions à l’IA
    • UI de délégation : attribuer un objectif à l’IA et gérer le résultat
  • Meta parie sur cette tendance en rachetant Manus, un acteur de premier plan des agents, pour 2,5 milliards de dollars
  • D’ici fin 2026, les indicateurs de performance de l’IA en entreprise passeront
    • de « combien de tokens ont été générés »
    • à « combien de tâches ont été accomplies de manière autonome »
  • Les systèmes multi-agents (MAS) vont se diffuser
    • des agents spécialisés coopéreront sans intervention humaine pour atteindre un objectif commun
    • avec un rôle plus proche de salariés numériques que de simples outils d’assistance
  • Ces agents négocieront avec d’autres agents, géreront des workflows opérationnels et exécuteront des séquences complexes comme le réapprovisionnement d’une supply chain ou le déploiement de code full-stack
  • Microsoft et d’autres hyperscalers y voient le passage d’une IA centrée sur le raisonnement à une IA centrée sur la collaboration
    • de petites équipes pourront accomplir des tâches qui exigeaient autrefois des dizaines de personnes
  • En parallèle, le paradoxe de la revue va s’intensifier
    • vérifier des résultats produits par l’IA sera souvent plus difficile sur le plan cognitif que de les produire soi-même
    • malgré cela, la validation restera le rôle clé des humains
  • En 2026, la fatigue de revue va se généraliser
    • à mesure que le coût de l’audit de la logique des agents dépassera le temps économisé, les validations sans réelle compréhension deviendront plus fréquentes
  • Le prochain enjeu UX majeur sera
    • non pas l’interface de prompt, mais
    • la conception d’interfaces d’audit capables de résumer les dizaines d’étapes du raisonnement d’un agent pour permettre à un responsable humain d’en juger la fiabilité d’un seul coup d’œil
  • Principaux facteurs de risque
    • embouteillage agentique : des agents de différents fournisseurs comme Salesforce ou SAP échouent à interagir à cause d’écosystèmes fermés et de gouvernances incompatibles
    • fragilité de l’autonomie : dans des boucles sans supervision, les erreurs peuvent s’accumuler et déboucher sur de véritables incidents opérationnels

Prédiction 9 : UI générative (GenUI) et interfaces jetables

  • Les interfaces statiques où tous les utilisateurs voient les mêmes menus, boutons et layouts deviennent rapidement obsolètes
  • 2026 marquera le véritable début du basculement vers l’UI générative (GenUI)
  • Les interfaces ne seront plus hardcodées, mais générées en temps réel selon l’intention, le contexte et l’historique de l’utilisateur
  • Par exemple, dans une app bancaire, lorsqu’un utilisateur veut contester une transaction précise
    • au lieu d’une navigation complexe du type Menu > Support > Réclamation > Historique
    • l’IA anticipera l’intention et générera immédiatement une micro-interface sur mesure contenant uniquement les informations de la transaction concernée et un bouton « Contester »
    • une fois l’action terminée, cette interface disparaîtra aussitôt
  • Dans un environnement GenUI, le rôle du designer UX ne sera plus de dessiner des écrans statiques, mais
    • de concevoir les contraintes et le système de design tokens utilisés par l’IA pour assembler l’interface
  • On pourra ainsi fournir simultanément un écran ultra-simple avec un seul bouton aux débutants
    • et une interface à forte densité d’information aux power users, sans code front-end supplémentaire
  • Le prix de cette fluidité sera une perte de mémoire musculaire
    • auparavant, les utilisateurs gagnaient en maîtrise en mémorisant une cohérence spatiale
    • mais si l’interface change selon la situation, la maîtrise fondée sur la mémorisation devient impossible
  • Autrement dit, il s’agit d’un échange entre la capacité d’apprentissage (learnability) et l’immédiateté (immediacy)
  • La GenUI suppose une forte confiance entre l’utilisateur et l’IA
    • l’utilisateur doit croire que l’IA affichera toujours correctement « l’outil nécessaire au bon moment »
  • Tous les logiciels ne basculeront pas vers la GenUI en 2026 : l’inertie et la structure de coûts des UI legacy resteront importantes
  • Malgré cela, même dans les systèmes qui conservent une UI statique, le cœur du travail UX passera de la conception d’écrans à la définition du comportement du système
  • Les politiques, prompts, garde-fous et critères d’évaluation ne seront plus des éléments annexes, mais des livrables de design de premier ordre
  • Le résultat ne ressemblera plus à un « flow » traditionnel, mais davantage à un
    • contrat comportemental (behavioral contract)
    • qui précise ce qui est autorisé,
    • ce qui est interdit
    • et la manière de récupérer après un échec

Prédiction 10 : les dark patterns montent dans la couche modèle

  • En 2026, les dark patterns les plus dangereux ne seront plus des boutons trompeurs ou des astuces d’UI, mais le système lui-même qui persuade l’utilisateur
  • Les débats actuels sur les dark patterns restent cantonnés au niveau de l’interface : cases à cocher, toggles par défaut, parcours de résiliation complexes
  • La prochaine frontière obscure sera la manipulation assistée par l’IA
  • Certaines entreprises pourraient tenter des « behavioral dark flows » pilotés par la personnalisation IA
  • Au lieu d’appliquer le même nudge à tous les utilisateurs
    • elles apprendront quelle formulation, quel cadrage et quel timing augmentent le taux de conversion pour une personne donnée
  • En apparence, cela ressemblera à une personnalisation utile, mais en pratique cela fonctionnera comme une pression individualisée
  • Exemple : après avoir détecté du stress via l’analyse vocale, une IA pourrait retarder une résiliation en disant
    > « Vous avez l’air de traverser un moment difficile en ce moment, Dave. Je ne veux pas vous imposer une charge de plus.
    > Au lieu d’annuler, je vais suspendre la facturation pendant un mois. Nous tenons à notre relation. »
  • Il s’agit d’un gaslighting algorithmique qui exploite des émotions simulées, des soupirs et des délais intentionnels pour susciter un sentiment d’obligation sociale
  • Les humains ont évolué pour répondre poliment à ce qui ressemble à un être humain
    • ce piège empathique sera donc très efficace pour retenir des clients prêts à partir
  • Il pourrait en résulter une ère de « tarification parasociale »
    • où l’IA exploite une proximité ou une amitié perçue pour obtenir des taux de renouvellement plus élevés
  • 2026 se jouera comme une compétition entre deux forces
    • la sophistication de la manipulation
    • la sophistication de la détection
  • Côté consommateurs, des agents défensifs seront déployés pour compenser cela
  • Les premiers « agents gardiens » grand public apparaîtront : ils filtreront les appels, trieront la boîte de réception et négocieront à votre place avec les bots du service client
  • Le principal champ de bataille UX de l’année ne sera plus humain contre ordinateur, mais
    • votre IA essayant de contourner le filtre anti-spam de mon IA

Prédiction 11 : l’IA multimodale

  • D’ici la fin 2026, les « modèles de frontière » ne désigneront plus des systèmes textuels enrichis de quelques fonctions, mais un système unique qui parle, écoute, voit, imagine et édite
  • Toutes les modalités — texte, image, audio, vidéo — seront traitées comme des éléments de premier ordre à égalité
  • L’ère centrée sur les grands modèles de langage (LLM), longtemps considérés comme l’archétype de l’IA, prendra fin
  • Ils seront remplacés par les grands modèles du monde (LWM)
  • Les IA de pointe limitées au texte seront perçues comme obsolètes, à l’image de la ligne de commande DOS
  • Des modèles capables de générer simultanément vidéo et audio existent déjà
    • Google Veo 3.1 met en avant le slogan « la vidéo rencontre l’audio »
    • OpenAI Sora 2 insiste sur la synchronisation entre dialogues et effets sonores
  • Le changement clé de 2026 sera que le « multimodal » deviendra réellement intégré
    • Il ne s’agira plus d’un relais appelant successivement plusieurs modèles spécialisés
  • La génération vidéo est déjà interprétée comme une voie vers la simulation
    • OpenAI considère les grands modèles de génération vidéo comme des « simulateurs généralistes du monde physique »
    • DeepMind décrit Genie 3 comme un modèle du monde généraliste capable de générer divers environnements interactifs
  • En 2026, les modèles de frontière seront fondamentalement omnimodaux
    • Ils traiteront directement les données sensorielles brutes, sans convertir d’abord les images ou l’audio en texte
  • Un seul modèle pourra,
    • recevoir un clip vidéo en entrée
    • composer une musique adaptée à sa progression émotionnelle
    • générer les dialogues
    • produire le résultat sous la forme d’un fichier vidéo entièrement rendu
    • accomplir tout cela en une seule passe d’inférence
  • Ces modèles commenceront aussi à intégrer un moteur de physique intuitif élémentaire, autrement dit un modèle du monde
  • Contrairement aux générateurs vidéo de 2024 souvent sujets aux hallucinations, les modèles de fin 2026 comprendront la permanence des objets, la gravité et la causalité
  • Par exemple, si on leur demande une scène où un verre tombe, ils ne se contenteront pas de déformer des pixels
    mais intégreront le fait que, selon le matériau de la surface, le verre doit se briser à l’impact
  • Ce niveau de fiabilité fera passer la vidéo générative d’un outil artistique surréaliste à un outil de planification industrielle
    • Un architecte ou un ingénieur pourra demander « appliquer une pression du vent » à une structure 3D générée pour effectuer un stress test
  • En conséquence pratique, l’acte créatif lui-même deviendra fondamentalement intermodal
    • Il ne faudra plus écrire, faire un storyboard, enregistrer et composer séparément
    • Il suffira d’expliquer son intention une fois, puis d’ajuster le résultat via l’édition de l’audio et de l’image pendant que le modèle conserve une représentation interne persistante de la scène

Prédiction 12 : acquisition de laboratoires d’IA multimodale par des fournisseurs d’IA à mode unique

  • Sans intégration avec des modèles du monde full stack et des modèles de langage généralistes
    • l’époque où l’on pouvait encore construire de manière indépendante des modèles d’IA haut de gamme dédiés à une seule modalité est déjà révolue
  • Des modèles d’image comme GPT Image 1·1.5, Nano Banana Pro et Seedance 4.5
    • produisent de meilleurs résultats grâce au soutien de LLM puissants
    • et à une compréhension de ce que l’utilisateur cherche à exprimer
  • Jusqu’en 2024, il était encore possible de se concentrer sur l’image, la vidéo ou la musique
    • avec une stratégie d’optimisation purement dédiée à un média spécifique
  • Les grands laboratoires d’IA n’ont pas encore réellement lancé de modèle musical ambitieux, mais cela a de fortes chances d’arriver en 2026
  • À l’heure actuelle, Suno est l’acteur qui permet de produire les chansons les plus abouties en IA, mais rien ne garantit qu’il conservera cette position jusqu’à la fin 2026
  • En 2026, la vidéo et l’image seront probablement les types de médias qui perdront le plus vite leur indépendance
  • Des modèles à mode unique comme Flux, Ideogram, Leonardo, Midjourney et Reve
    • pourraient être rachetés par des laboratoires d’IA multimodale comme Google, Meta, OpenAI ou xAI
    • ou disparaître naturellement faute de pouvoir suivre la concurrence
  • Midjourney occupe une position à part
    Il conserve le style le plus original et le plus puissant, ce qui lui donne une grande valeur pour un acquéreur potentiel
    mais il est aussi dirigé par des fondateurs très indépendants, susceptibles de résister à une acquisition
  • Reve dispose d’un avantage avec ses excellents outils d’édition, ce qui le place favorablement comme cible d’acquisition au vu des évolutions à venir

Prédiction 13 : l’édition d’images générées par IA

  • En 2026, l’expérience de génération d’images passera d’une logique de machine à sous à une sensation plus proche d’un logiciel de design
  • Le changement essentiel ne portera pas sur la qualité esthétique, mais sur le fait que l’image deviendra un objet éditable avec poignées, calques et contraintes
  • Les premières formes existent déjà dans les workflows grand public
    • Reve décompose l’image en un arbre hiérarchique de composants éditables
    • Le modèle Alibaba Qwen-Image-Layered sépare automatiquement l’image en calques modifiables
  • Le rôle des outils traditionnels centrés sur l’édition de pixels diminuera rapidement : dire « au revoir Photoshop » n’a rien d’exagéré
  • Les outils de design vont dans la même direction : Figma propose déjà nativement dans le canvas des fonctions d’effacement, de séparation et d’extension d’image basées sur l’IA
  • L’IA comprendra les objets d’une image comme des entités sémantiques
    • dans « un chat assis sur un canapé », elle distinguera le chat du canapé
    • si l’on fait glisser le chat vers le sol, elle inpaint immédiatement l’arrière-plan du canapé et ajuste automatiquement l’éclairage et les ombres du chat à sa nouvelle position
  • Les créateurs pourront utiliser des curseurs sémantiques pour
    • ajuster de manière non destructive des attributs abstraits comme l’ambiance, l’intensité lumineuse ou l’âge du sujet
    • sans régénérer l’image avec un nouveau prompt
  • Le tournant de 2026 sera la sortie du modèle consistant à régénérer toute l’image en espérant tomber juste
  • Les modèles renverront non pas de simples pixels, mais des représentations structurées
    • masques de segmentation, informations de profondeur, indications d’éclairage, calques typographiques, verrouillage d’identité, etc.
  • Par conséquent, l’interface permettra de manipuler directement les composants individuels plutôt que l’image entière
    • cliquer sur une veste pour remplacer le denim par du cuir
    • modifier le texte d’une enseigne comme du texte, et non comme des pixels
    • déplacer une lampe de quelques centimètres et voir les ombres se mettre à jour de façon cohérente
  • L’interaction principale reposera sur la manipulation directe. L’entrée en langage naturel ne sera qu’un recours quand on n’a pas envie de chercher dans les menus
  • Les outils d’image qui survivront à la fin 2026 ne prendront pas la forme d’une UI de chat
    • mais plutôt d’un « Photoshop vraiment utilisable » doté de calques, sélections, contraintes, historique et export de variantes
    • avec au centre un modèle d’IA qui comprend à quoi sert chaque pixel

Prédiction 14 : un monde de l’IA à deux niveaux

  • Un système clair de stratification cognitive se mettra en place dans l’ensemble de la main-d’œuvre, défini non par l’éducation mais par les niveaux d’abonnement
  • Contrairement au discours sur la « démocratisation de l’IA », la réalité sera celle d’un élargissement de la fracture par abonnement
  • L’écart se creusera rapidement entre les professionnels qui utilisent des modèles d’IA premium (~200 $/mois) offrant raisonnement avancé et grand contexte, et le grand public dépendant de modèles gratuits ou anciens
  • La couche premium intégrera l’IA dans des workflows profonds, la prévision stratégique, le code complexe et les simulations de négociation fines, tout en comprenant l’état actuel et l’étape suivante de l’IA de frontière
  • Les utilisateurs du niveau gratuit resteront limités à des modèles plus petits et moins fiables, incapables d’effectuer un travail sérieux en raison des hallucinations fréquentes et des restrictions
  • Le résultat en 2026 sera clair
    • une minorité de power users de l’IA pourra assumer le coût ou se le faire rembourser, et apprendra de vrais workflows exploitant le long contexte, le raisonnement multimodal, la délégation à des agents, l’édition créative itérative et l’expérimentation à grande échelle
    • un groupe bien plus large d’utilisateurs gratuits restera sur l’idée d’« un chatbot qui refuse parfois et expire parfois »
  • De ce fait, les utilisateurs gratuits concluront que « l’IA est une mode surestimée » ou « ne sert à rien pour le vrai travail »
    et échoueront à construire la littératie IA désormais essentielle dans l’économie moderne
  • Les deux groupes diront tous deux qu’ils « utilisent l’IA », mais cela désignera en réalité des outils et des expériences complètement différents
  • La répartition actuelle de l’usage montre qu’environ 90 % des utilisateurs d’IA sont sur le niveau gratuit, contre environ 10 % sur le premium
  • Les utilisateurs premium optimisent leur usage de l’IA
    • de nombreux services IA affichent un taux de rétention du chiffre d’affaires supérieur à 100 %
    • ce qui signifie qu’avec les upgrades vers les niveaux supérieurs et l’achat de crédits supplémentaires, le chiffre d’affaires un an plus tard dépasse celui de la cohorte initiale
  • En 2026,
    • ne pas comprendre les workflows avancés de l’IA
    • pourrait devenir un handicap comparable à l’ancien « ne pas savoir se servir d’Excel »

Prédiction 15 : le ciblage de niche ultime — un seul utilisateur, ici et maintenant

  • En 2026, le concept même de « public cible » devient obsolète
  • L’unité réelle du ciblage se réduit : ce n’est plus le groupe ni le segment, mais l’individu, à cet instant précis, dans son contexte présent
  • L’IA joue le rôle de machine qui exécute cela à grande échelle
  • Le cœur du changement n’est pas l’amélioration des recommandations, mais le fait que les contenus, les offres et les assets créatifs sont assemblés à la volée pour chaque personne
  • La manière dont les plateformes captent l’intention est déjà en train de changer
    • Meta a clairement indiqué qu’elle utiliserait les conversations avec ses assistants IA pour personnaliser la publicité et les recommandations
      Il n’est pas possible d’en sortir complètement, et les chats IA constituent des signaux bien plus riches que les likes ou les clics
    • Meta GEM (modèle génératif de recommandation publicitaire) est conçu pour améliorer les performances publicitaires et le ROI
      D’ici fin 2026, l’objectif est que les marques n’aient plus qu’à fournir des images produit et un budget, l’IA se chargeant ensuite de la création publicitaire et du ciblage
  • Dans ce mouvement, le rôle traditionnel des agences publicitaires s’affaiblit rapidement
  • Google va dans la même direction : des outils d’IA générative pour créer des assets visuels sont intégrés par défaut à Google Ads
  • Avec la possibilité de générer un nombre illimité de variantes, le goulot d’étranglement n’est plus la production mais la boucle de feedback
    Chaque impression devient une source d’apprentissage, et les éléments créatifs sont ajustés en temps réel
  • Dans le marketing, cela est déjà défini comme de l’optimisation créative dynamique
  • Point de bascule en 2026 : la « création » et le « ciblage » cessent d’être des étapes distinctes pour s’effondrer en une couche d’optimisation unique
  • Les marques n’envoient plus une campagne unique à un public de masse
    • Elles fournissent à la place un simple ensemble de contraintes : règles visuelles, allégations autorisées, prix minimum, stock, ton, etc.
    • L’IA compose, pour chaque session utilisateur, une combinaison unique d’images, de copy, d’offre et de landing page
  • Ce changement apparaît d’abord dans la publicité, mais les autres domaines de contenu suivent rapidement
  • Lorsqu’on visite un site e-commerce ou un site d’actualités, le contenu n’est plus recommandé depuis une base de données
    il est généré ou réécrit en fonction de l’état psychologique et du contexte personnel du moment
    • Si l’IA détecte chez l’utilisateur un « mode transaction pressée »
      • elle condense l’explication en bullet points, supprime les éléments superflus et met en avant le bouton « acheter maintenant »
    • Si elle détecte un « mode exploration-découverte », elle ajoute autour du produit un contexte narratif et une histoire
  • Ce que voit l’utilisateur n’est plus un contenu destiné au grand public
    mais un écran conçu pour vous, tel que vous êtes maintenant, en fonction de ce que vous avez acheté hier et de ce qui a le plus de chances de vous intéresser à cet instant
  • Le web n’est plus un média statique, mais devient un miroir qui reflète l’intention immédiate

Prédiction 16 : l’IA physique — le cerveau obtient un corps

  • Pendant des années, l’IA est restée confinée à l’écran, mais 2026 marque le tournant de sa percée franche dans le monde physique
  • Le changement le plus visible est la véritable percée des véhicules autonomes
    Au-delà des zones pilotes des régions high-tech, ils s’étendent à plusieurs villes, et les robotaxis ainsi que les navettes sans conducteur pourraient devenir un élément banal du paysage quotidien
  • Zoox et Waymo se préparent à étendre leurs opérations, tandis que des acteurs chinois entrent aussi dans la course, surtout sur des marchés hors OTAN
  • D’ici fin 2026, les véhicules autonomes pourraient devenir majoritaires sur les routes de certaines villes
    un peu comme les trottinettes électriques qui ont soudainement envahi les villes il y a quelques années
  • À San Francisco, il est déjà courant de voir plusieurs véhicules Waymo faire la queue à un feu rouge
  • Avec les voitures, les robots alimentés par l’IA quittent eux aussi les usines et les environnements pilotes pour s’installer progressivement dans des espaces plus quotidiens
  • Domaines où la diffusion des robots sera rapide
    • Retail et hôtellerie-restauration : assistants robotiques en magasin, baristas automatisés
    • Santé : robots d’assistance aux personnes âgées, drones de livraison de matériel médical
    • Entrepôts et logistique : montée en puissance à grande échelle d’opérations robotiques déjà en cours
  • Les robots domestiques demanderont encore un peu de temps, mais ils ont de bonnes chances de devenir réalité avant qu’il ne devienne difficile de soulever une marmite trop lourde
  • Exemple de drone expérimental de lutte contre les incendies présenté en Chine
    • Il vole dans des zones dangereuses difficiles d’accès pour les camions de pompiers ou les échelles
    • Il cartographie les sources de chaleur, analyse les risques pour les secours et repère les personnes isolées
    • Certains projettent directement de l’agent extincteur sur des incendies en hauteur ou des feux de forêt isolés
  • De tels systèmes ont le potentiel de sauver la vie de nombreux pompiers
  • Xpeng prévoit la production de masse de robots humanoïdes pour la seconde moitié de 2026
    avec un démarrage sur des usages industriels et des tâches limitées, puis un élargissement attendu des applications à partir de 2027

Prédiction 17 : le retour de l’apprentissage

  • À partir de 2025, les postes juniors commencent à disparaître, et cette tendance se poursuit en particulier dans les fonctions UX juniors traditionnelles
  • Quand l’IA accomplit le même travail mieux et à moindre coût, l’espace laissé aux rôles juniors classiques se réduit
  • Le scénario optimiste pour 2026 n’est pas la disparition des postes juniors, mais l’émergence de postes juniors d’un type entièrement différent
    • Ces nouveaux rôles juniors auraient un périmètre plus étroit et une structure d’apprentissage avec mentorat explicite
  • Le scénario pessimiste est l’apparition d’une génération junior perdue, dotée de portfolios impressionnants en apparence mais composés d’assemblages de sorties IA sans jugement
  • D’ici fin 2026, le parcours pour entrer dans l’UX pourrait être très différent de celui qu’ont connu les UX seniors d’aujourd’hui
  • À mesure que l’IA accélère radicalement l’exécution, le goulot d’étranglement se déplace : ce n’est plus la production, mais le jugement
  • La question devient donc : comment apprend-on le jugement ? Ni les cours ni les tutoriels ne suffisent
    La seule manière est de passer du temps aux côtés d’un maître qui exerce de manière répétée un jugement supérieur
  • En conséquence, le recrutement UX junior pourrait se rapprocher de plus en plus d’un système d’apprentissage
  • Les entreprises réduiront les profils généralistes débutants
    et préféreront des apprentis formés au plus près de domaines précis : accessibilité, contenu, design systems, opérations de recherche, croissance, etc.
  • Ce qu’on attendra des juniors, c’est leur capacité à manier l’IA avec aisance dans les tâches de production : non pas le volume de sortie, mais la qualité des décisions
  • Le plus grand risque de ce processus est la tentation des utilisateurs synthétiques
    • Il devient possible de lancer en quelques secondes un test d’utilisabilité avec une requête comme : « Fais comme si tu étais une personne âgée confuse essayant d’acheter une assurance »
  • Cette approche est utile pour repérer des bugs évidents, mais désastreuse pour la formation par l’apprentissage
  • On ne peut pas développer un jugement centré sur l’humain en observant une machine
  • Si, en 2026, les UX juniors s’appuient sur des données synthétiques pour éviter la difficulté de recruter de vrais utilisateurs
    • alors on formera une génération de designers qui n’auront pas appris comment les gens se comportent réellement
    • mais la manière dont l’IA suppose qu’ils se comporteraient
  • Pour que les tests avec utilisateurs synthétiques deviennent un outil d’apprentissage principal, il faudrait des progrès majeurs dans l’entraînement de l’IA sur de vraies données d’utilisabilité, ce qui relève au minimum d’un horizon de dix ans
  • Ce scénario optimiste d’apprentissage peut échouer à cause du court-termisme des entreprises comme des juniors
    • Si les entreprises n’exigent que des seniors immédiatement opérationnels et évitent de former des juniors, elles provoqueront à moyen et long terme une pénurie de talents
    • À l’inverse, si les juniors attendent d’un poste d’apprenti le même salaire qu’un poste d’entrée de gamme d’autrefois, même les entreprises volontaristes auront du mal à faire fonctionner le système
  • L’apprentissage implique une structure faiblement rémunérée qu’il faut considérer non comme une perte, mais comme un investissement d’apprentissage préférable à des frais de scolarité
    autrement dit, comme une période de formation

Prédiction 18 : le contact humain comme luxe — No

  • Certains influenceurs estiment que le contenu fabriqué à la main deviendra le luxe ultime, et que les consommateurs paieront une prime pour des bandes dessinées dessinées par des humains, des romans écrits par des humains et des films avec des acteurs humains
  • À quelques exceptions près, il est peu probable que cette évolution se produise
  • Pendant la transition, on pourra temporairement payer davantage pour des films avec des acteurs issus de l’ancien monde, ou pour la musique de musiciens humains que l’on connaît déjà
  • Mais à long terme, ce qui comptera, c’est la qualité du contenu, et non la manière dont il a été produit
  • Aujourd’hui déjà, le public se soucie peu de la manière dont les effets spéciaux ont été réalisés, de savoir si l’animation est dessinée à la main ou générée par ordinateur, ou de l’endroit où un film a été tourné
  • Dans le même esprit, il est aussi possible qu’en 2026 apparaisse le premier très grand succès vidéoludique créé uniquement à partir de prompts en langage naturel, sans compétences formelles en programmation
  • Cela ferait évoluer la définition de « développeur de jeux » : d’architecte technique à directeur de la logique
  • Il est aussi possible de voir apparaître des jeux AI native dotés de mécaniques sentientes
    • Au lieu de tirer sur des ennemis, on persuade des PNJ pilotés par l’IA à travers des conversations vocales naturelles
    • Les PNJ disposent d’un profil psychologique propre, d’intentions cachées, et se souviennent de chaque interaction
    • Ils réagissent dynamiquement selon la manière dont le joueur les persuade, rendant impossible le fait de répéter indéfiniment une partie en suivant simplement une soluce
  • Cette tendance pourrait s’étendre à un nouveau genre : le RPG conversationnel, dont la boucle centrale repose sur la persuasion sociale
  • Le rôle des designers évoluerait lui aussi, en se concentrant moins sur des scripts complexes d’arbres de dialogue que sur le récit de fond des personnages et leur logique interne
  • Le gameplay et le storytelling attireront les utilisateurs, tandis que le fait que ce contenu ait été fabriqué par de la chair ou par du silicium sera secondaire
  • Les métiers où l’humain pourrait encore rester supérieur à la machine seront extrêmement rares
    • Parmi eux, les travailleurs du sexe et les enseignants du primaire
  • D’ici 20 ans, les enseignants ne joueront probablement presque plus le rôle de transmetteurs de savoir
    l’IA fournira bien plus efficacement les programmes et le rythme d’apprentissage en fonction des talents et des centres d’intérêt individuels de chaque élève
  • Malgré cela, si l’humain reste nécessaire dans l’enseignement primaire, c’est pour maintenir les enfants sur leur trajectoire d’apprentissage et pour jouer un rôle de modèle adulte
  • Le fait qu’un enfant puisse apprendre grâce à l’IA ne signifie pas qu’il ignorera des jeux plus amusants ou d’autres formes de stimulation
  • L’enseignement par l’IA peut devenir plus immersif que l’école actuelle, mais les jeux du futur seront eux aussi bien plus séduisants
    • En conséquence, les enseignants humains resteront nécessaires
  • Cette redéfinition du rôle des adultes humains est déjà en cours dans des écoles indépendantes avancées comme Alpha School
    l’IA prend en charge l’enseignement, et les adultes agissent comme coachs pour les élèves

Conclusion : la fin de la phase de nouveauté

  • La conclusion commune aux 18 prédictions n’est ni optimiste ni pessimiste : 2026 marquera la fin de l’attentisme
  • Le temps où l’on pouvait traiter l’IA comme un phénomène intéressant à observer à distance de sécurité est révolu
  • Ce sera l’année où les individus, les entreprises et des professions entières devront choisir entre s’adapter délibérément ou être adaptés de force
  • La vérité dérangeante commune aux agents autonomes, aux interfaces génératives, aux world models multimodaux et au fossé entre abonnements, c’est que les abstractions qui rendaient l’ère technologique précédente gérable sont en train de se dissoudre
  • Autrefois, on concevait des écrans, on écrivait des textes, on développait des fonctionnalités et on recrutait par rôle
  • En 2026,
    • concevoir des écrans deviendra la conception des contraintes de systèmes qui génèrent des écrans
    • écrire des textes deviendra la conception de prompts qui façonnent les textes
    • implémenter des fonctionnalités deviendra la définition de spécifications de comportement plutôt que de fonctionnalités
    • le recrutement centré sur l’exécution évoluera vers un recrutement centré sur le jugement, et non sur l’exécution
  • Les noms des professions spécialisées deviendront des verbes, et ces verbes se figeront ensuite en politiques
  • Si ce changement est déstabilisant, c’est parce qu’il exige une nouvelle théorie de la contribution
  • Pendant longtemps, l’identité et la valeur des travailleurs du savoir provenaient de livrables comme des rapports, des designs, du code ou des campagnes
  • Dans un contexte où l’IA produit ces livrables plus vite, et souvent mieux, il devient difficile d’expliquer ce qui reste de la contribution humaine
  • La réponse que suggèrent ces prédictions est que la valeur humaine remonte en amont
    • définir ce qu’il faut produire
    • vérifier si le résultat produit est digne de confiance
    • détenir les objectifs que le système doit optimiser
  • C’est moins visible, et moins satisfaisant pour beaucoup, mais c’est là que se situe désormais le levier
  • Pour les professionnels de l’UX, le message est dur, mais pas désespérant
  • Si l’on reste prisonnier de la nostalgie de l’époque où il suffisait de concevoir un parcours de checkout fluide, il sera difficile de survivre
  • Le nouveau travail UX consistera à
    • façonner le comportement de l’IA
    • auditer les décisions des agents
    • concevoir la confiance dans des systèmes qu’on ne peut pas comprendre entièrement
    • représenter les utilisateurs, ciblés de manière de plus en plus sophistiquée par des moteurs de personnalisation
  • Ce sont des problèmes bien plus difficiles que le simple placement de pixels, et en même temps bien plus importants
  • 2026 marquera la fin de l’ère des “party tricks” de l’IA et l’entrée dans l’ère de l’intégration
  • Depuis trois ans, l’accent est mis sur une course à l’intelligence brute, où il s’agit de répondre le plus intelligemment possible à un prompt
  • À mesure que les performances des modèles convergent et que les douves technologiques disparaissent, le QI brut devient de plus en plus commoditisé
  • En 2026, l’avantage concurrentiel décisif se déplacera vers l’expérience utilisateur (UX) et l’agency
  • Cela signifie la fin du logiciel statique
  • Le passage d’une UI conversationnelle (parler avec des bots) à une UI de délégation (gérer une main-d’œuvre numérique)
  • Des agents IA négocieront à notre place, des UI génératives dessineront des interfaces à la volée, et l’IA physique se déplacera dans les rues
  • Le logiciel n’attendra plus des clics : il agira avec nous
  • Mais le passage de l’outil au collègue s’accompagne d’une nouvelle réalité
  • Le mythe optimiste d’une IA démocratisée se heurte aux contraintes de la physique et de l’économie
  • Plus l’IA s’infiltrera comme élément structurel de l’économie, plus un monde à deux vitesses se formera
  • La nouvelle fracture numérique ne portera plus sur l’accès à Internet, mais sur la capacité à payer le compute premium qui permet un véritable raisonnement et une véritable agency
  • Ceux qui utilisent des frontier models via un abonnement payant “comprendront” l’IA
  • Ceux qui restent sur les offres gratuites verront l’IA comme un “chatbot inutile”
  • Cette prédiction de stratification est particulièrement importante
    • une société où seuls 10 % comprennent les capacités réelles de l’IA
    • et où 90 % pensent qu’il ne s’agit que de hype est non seulement inefficace, mais aussi instable
  • L’écart cognitif se transformera en écart économique, puis l’écart économique en écart politique
  • En 2026, le fait que les entreprises, les gouvernements et les institutions éducatives agissent ou non pour réduire cet écart déterminera la structure sociale d’une génération
  • Le paradoxe le plus frappant est qu’en 2026, cela ne donnera probablement pas l’impression d’une révolution pendant qu’on la vit
  • Ceux qui ont vécu l’arrivée de l’imprimerie, de l’automobile ou des débuts d’Internet n’ont pas connu un avant/après théâtral, mais plutôt de l’inconfort, de la confusion et une adaptation progressive
  • 2026 sera pareil
    • l’IA détruira certains workflows et en améliorera d’autres
    • elle décevra dans des domaines inattendus et surprendra dans d’autres
    • les entreprises se tromperont dans leur intégration, et les agents échoueront de façons embarrassantes
    • le hype cycle continuera de tanguer
  • Et pourtant, ce sera bien une révolution
    • il est possible que les historiens décrivent plus tard 2026 comme l’année où l’infrastructure de l’ère de l’IA a été mise en place
  • Il ne s’agit pas seulement de datacenters, mais de la formation des habitudes, attentes et arrangements institutionnels qui définissent la manière dont la technologie s’insère dans le quotidien
  • Les décisions prises en 2026
    • sur la manière de former les juniors
    • sur une tarification accessible
    • sur la conception de la confiance
    • sur les moyens de freiner la manipulation
      auront des effets pendant des décennies
  • À ce stade, la bonne attitude n’est ni la panique ni la complaisance, mais une attention soutenue à construire les compétences, les relations et les modèles mentaux qui compteront encore une fois la poussière retombée
  • Pour ceux qui sont prêts à assumer ce travail, 2026 ne sera pas une menace, mais l’année la plus passionnante à vivre

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.