1 points par GN⁺ 1 시간 전 | 1 commentaires | Partager sur WhatsApp
  • Les gains de productivité individuels apportés par l’IA chez les employés ne se transforment pas automatiquement en apprentissage à l’échelle de l’organisation ; l’enjeu clé est le chemin par lequel les découvertes réelles passent de l’individu à l’équipe puis aux capacités de l’entreprise
  • Dans cette phase intermédiaire complexe de l’adoption de l’IA, l’usage d’outils comme Copilot, ChatGPT Enterprise, Claude, Gemini ou Cursor s’est largement diffusé, mais la profondeur d’utilisation varie selon les équipes, et une partie des apprentissages reste cachée, ce qui complique la comparaison et la diffusion
  • Les approches classiques de conduite du changement — communautés, réseaux de champions, démos, enquêtes, tableaux de bord — peinent à capturer suffisamment le contexte, les échecs, la validation et l’intervention humaine qui accompagnent l’usage réel de l’IA dans le travail quotidien
  • L’ingénierie agentique réduit le coût des itérations et permet de passer rapidement de l’intention au prototype puis à l’évaluation, mais les procédures organisationnelles de Scrum, de sprint et de passation reposent encore sur l’hypothèse que l’itération reste rare
  • Les organisations ont besoin à la fois de Agent Operations, de Loop Intelligence et d’Agent Capabilities ; l’important n’est pas de surveiller les employés, mais de disposer d’un harnais de feedback capable de comprendre les boucles de travail réelles pour les transformer en capacités réutilisables et en apprentissage plus rapide

La phase intermédiaire complexe de l’adoption de l’IA, quand l’organisation n’apprend pas

  • Dans la perspective de Ethan Mollick, Leadership, Lab, and Crowd, l’amélioration de la productivité individuelle grâce à l’IA ne devient pas automatiquement une performance à l’échelle de l’organisation
    • Les employés peuvent écrire plus vite, analyser davantage, automatiser et travailler comme des « cyborgs », sans que l’entreprise n’apprenne presque rien
    • Des outils comme GitHub Copilot, ChatGPT Enterprise, Claude, Gemini ou Cursor sont déjà entrés dans les entreprises, et dans chaque équipe, certaines personnes ont pris beaucoup d’avance sur les supports de formation officiels
    • Les dirigeants peuvent voir l’usage des licences, le nombre de prompts, les enquêtes, les PoC internes ou les documents des comités de pilotage, mais ils distinguent mal où l’apprentissage réel a lieu
    • Dans certaines entreprises, l’IA est immédiatement renvoyée vers le département IT, puis n’avance plus
  • Cette phase intermédiaire complexe de l’adoption de l’IA commence quand son usage est largement répandu, mais inégal, partiellement caché, difficile à comparer, et pas encore relié à l’apprentissage organisationnel
    • L’unité d’adoption n’est alors plus l’organisation entière, ni même forcément l’équipe, mais la boucle (loop) à l’intérieur du travail réel

Ce qui se passe une fois que tout le monde a Copilot

  • La première étape de l’adoption de l’IA ressemble à un déploiement d’entreprise classique, donc reste relativement familière
    • On achète des licences, on définit le périmètre d’usage acceptable, on forme, on crée un réseau de champions, et on demande de partager des cas d’usage dans un canal Teams
    • Ces canaux peuvent être actifs pendant un temps, puis finir comme un entrepôt interne rempli de bonnes intentions
  • À la deuxième étape, les façons d’utiliser l’IA divergent fortement, y compris au sein d’une même entreprise
    • Certaines équipes n’utilisent Copilot que comme une forme d’autocomplétion
    • D’autres font tourner Claude Code dans des boucles serrées avec tests, review et ajustement continu
    • Des responsables produit prototypent directement du logiciel au lieu de produire des écrans Figma
    • Un ingénieur senior délègue une analyse de cause racine à un agent et obtient en une heure une solution valable pour un travail qui aurait pris deux semaines sans IA
    • Un junior peut produire un code élégant sans savoir quelles hypothèses d’architecture ont été injectées dans le système
    • Les équipes support transforment discrètement les tickets répétitifs en automatisations de workflow, et connaissent les vrais points de douleur que le Center of Excellence n’a pas su identifier
  • Dans le cadre de Mollick, le leadership donne la direction et l’autorisation, le Crowd fait le travail réel et découvre donc les cas d’usage, et le Lab transforme ces découvertes en pratiques partagées, outils, benchmarks et nouveaux systèmes
    • La difficulté centrale est de savoir comment les découvertes passent réellement de l’individu à l’équipe, puis de l’équipe aux capacités de l’organisation

Les méthodes classiques de conduite du changement sont trop lentes

  • La plupart des entreprises essaient de traiter l’adoption de l’IA avec leur boîte à outils traditionnelle du changement
    • Communautés de pratique, sessions déjeuner, réseaux de champions, supports d’activation, office hours, démos mensuelles, enquêtes et tableaux de bord sont mis à contribution
    • Dans les organisations où il faut encore obtenir l’autorisation d’expérimenter, ces approches peuvent déjà être utiles
  • Mais les usages intéressants de l’IA émergent dans le travail réel, sans attendre la prochaine réunion de communauté
    • Ils apparaissent dans les code reviews, les propositions commerciales, les travaux de recherche, les prototypes produit, les incidents opérationnels, les stratégies de test et les questions de conformité
    • Pour certains types de composants produit, des schémas proches de la « dark factory » peuvent apparaître
      • On rédige l’intention
      • On laisse l’agent tourner dans une boucle souple
      • On applique assez de backpressure pour le maintenir sur sa trajectoire
      • On évalue les résultats avec des scénarios robustes
      • On affine l’intention et on obtient par itération des résultats de haute qualité
  • Les apprentissages utiles perdent souvent leur tranchant lorsqu’on les résume en slides de best practices
    • Car la vraie valeur venait du contexte manquant, des tests ratés, du comportement étrange d’une API, ou de la friction humaine nécessaire pour remettre l’agent sur les rails quand il partait dans une direction absurde
  • Du point de vue de l’elastic loop, la collaboration avec l’IA n’est pas un mode unique
    • Elle s’étend d’une co-conduite étroite et synchrone à une délégation plus souple et asynchrone
    • La vraie question n’est pas « les gens utilisent-ils l’IA ? », mais quelle taille de boucle l’équipe doit utiliser, où il faut de la résistance, quels artefacts doivent survivre au-delà de la boucle, et comment ces artefacts deviennent de l’apprentissage organisationnel
    • Ce sont des questions bien plus difficiles que le simple comptage d’usage des outils ou des tokens

Scrum a été conçu sur l’hypothèse d’itérations coûteuses

  • Une grande partie des processus logiciels modernes existe parce que les itérations humaines étaient coûteuses
    • Cela inclut la planification de sprint, les estimations, les stand-ups, les user stories, le tri des tickets, les passations, ainsi que les rituels de coordination et de réduction du risque
    • Quand une itération prenait plusieurs jours ou plusieurs semaines, il fallait des structures pour éviter de gaspiller des itérations
  • L’ingénierie agentique change l’économie de l’itération
    • Elle permet de matérialiser davantage d’options
    • Elle accélère le passage de l’intention au prototype, puis à l’évaluation
    • Elle permet aux responsables produit de voir plus tôt un logiciel fonctionnel
    • Elle permet aux ingénieurs de tester plus d’hypothèses avant de décider
    • Elle ne rend pas la livraison magiquement facile, mais déplace la contrainte de l’implémentation vers l’intention, la validation, le jugement et le feedback
  • Beaucoup d’organisations se disent agiles depuis vingt ans tout en conservant les réflexes organisationnels que l’agilité cherchait précisément à supprimer
    • L’IA rend l’agilité réelle plus plausible, mais le système continue d’exiger des engagements sur des sprints de deux semaines, des documents de passation et des procédures fondées sur l’idée que l’itération reste rare
    • Les boucles peuvent avancer plus vite que la capacité de l’organisation à digérer ce qu’elle a appris de ces boucles

La facturation de l’IA oblige l’organisation à poser de meilleures questions

  • L’usage de l’IA a de fortes chances de devenir beaucoup plus mesurable
    • L’ambiance actuelle dans l’entreprise — où tout le monde a accès et où le coût n’est pas encore une préoccupation majeure — ne durera peut-être pas
    • Le model routing, les budgets de tokens, la tarification à l’usage, le coût de l’inférence et la gouvernance sur les modèles autorisés pour chaque type de tâche vont devenir plus explicites
  • La question importante n’est pas de réduire de façon abstraite le coût des tokens
    • De la même manière que la question clé dans la livraison logicielle n’a jamais été de minimiser le nombre de frappes clavier
    • La meilleure question est : « Qu’est-ce qui a changé parce que ces tokens ont été dépensés ? »
  • Il faut éviter de compter les pull requests
    • Quelle boucle s’est refermée plus vite ?
    • Quelle décision s’est améliorée ?
    • Quelle analyse de cause racine est devenue plus précise ?
    • Quelle review a détecté davantage de problèmes ?
    • Quelle équipe a appris des schémas réutilisables ?
    • Quelle idée produit a été abandonnée plus tôt parce qu’un prototype en a révélé les faiblesses ?
    • Où l’IA a-t-elle créé de l’apprentissage, et où n’a-t-elle fait que produire plus d’artefacts ?
  • Le « volume produit par token » n’est qu’un vieux réflexe de mesure habillé autrement
    • Ce qui compte davantage, c’est quelque chose de plus proche de l’apprentissage par token

Loop Intelligence comme chemin de feedback manquant

  • Dans cette phase intermédiaire complexe de l’adoption de l’IA, l’entreprise a besoin de trois capacités
  • Agent Operations

    • Gérer quels agents et outils IA sont en cours d’exécution, quels systèmes ils peuvent toucher et quelles données ils peuvent voir
    • Cela inclut aussi les actions qui exigent une approbation, l’identité, l’audit, les autorisations et la visibilité à l’exécution
    • Comme le travail agentique finit par agir sur des systèmes réels, la dimension contrôle est importante
  • Loop Intelligence

    • Identifier quelles boucles assistées par IA ou pleinement agentiques produisent un apprentissage réel
    • Voir quelles boucles restent ouvertes, lesquelles déclinent, où les agents créent du levier et où ils se dispersent sur des branches secondaires
    • Déterminer quelles équipes restent coincées dans une supervision serrée faute de tests, de contexte ou d’intuition, et lesquelles sont prêtes à déléguer plus largement
  • Agent Capabilities

    • Déployer des capacités utiles dans toute l’organisation sans supposer que trois agents géants puissent faire le travail de tout le monde
    • L’IA commence à se comporter moins comme une catégorie unique d’application que comme une technologie de base fluide
    • Elle s’adapte mal à une logique de zoo d’entreprise avec un « agent RH », un « agent ingénierie » et un « agent commercial » chacun dans sa cage
    • Les capacités doivent aller là où le travail réel se produit
      • harnais employé
      • agents en arrière-plan
      • équipes produit
      • services de plateforme
      • skills locaux
      • serveurs MCP
      • suites d’évaluation
      • runbooks
      • exemples
      • procédures propres au domaine

Question de plateforme et harnais de feedback

  • Au niveau plateforme, la question clé est celle de la propriété des capacités utiles et de leur circulation
    • Il faut un moyen pour qu’une compétence agentique utile découverte dans une équipe soit transmise à d’autres sans se transformer en template mort
    • Le harnais du développeur, celui du responsable produit, les agents en arrière-plan du support et les workflows de conformité doivent être renforcés différemment
    • Certaines capacités doivent rester proches des équipes, d’autres au niveau de la plateforme, et d’autres encore ne doivent pas être généralisées, car leur valeur vient précisément du contexte local
  • Si une seule des trois capacités est présente, la situation devient vite étrange
    • Agent Operations sans Loop Intelligence devient une bureaucratie du contrôle
    • Loop Intelligence sans Agent Capabilities devient une couche d’analyse qui repère des schémas utiles sans pouvoir les réinjecter dans le travail
    • Agent Capabilities sans Operations ni Loop Intelligence devient une prolifération d’outils mieux marketés
    • Le chemin du contrôle, le chemin de l’apprentissage et le chemin des capacités doivent se rejoindre quelque part
  • En interne, on peut appeler cela un harnais de feedback
    • Ce que les clients achètent, ce n’est pas un mécanisme élégant, mais de la confiance, de meilleures décisions, un apprentissage plus rapide, moins de gaspillage et une délégation plus sûre
    • Pour les clients, le concept de Loop Intelligence Hub peut être plus parlant
  • Le harnais de feedback est un dispositif à l’écoute des boucles de travail réelles
    • Il observe les tâches, les prompts, les spécifications, les reviews, les scénarios, les hypothèses acceptées ou rejetées, les signaux opérationnels, les reprises de travail, ainsi que les décisions et interventions humaines
    • Il n’est pas là pour surveiller les personnes, mais pour comprendre les boucles
    • La première version n’a pas besoin d’être une énorme plateforme
    • Il suffit de choisir quelques workflows réels, d’instrumenter les points où l’intention, l’action de l’agent, la validation et la décision humaine laissent déjà des traces, puis de collecter assez de feedback qualitatif pour comprendre pourquoi une boucle réussit ou échoue, avant de transformer cela en artefacts d’apprentissage réutilisables
  • Le Loop Intelligence Hub transforme les signaux en formats exploitables par l’organisation
    • backlog d’activation
    • radar de capacités
    • briefs d’investissement
    • lacunes de gouvernance
    • workflows réutilisables
    • besoins de formation
    • priorités d’évaluation
    • Il ne faut pas un tableau de bord universel, mais des sorties adaptées à la pertinence du contexte
  • Le résultat intéressant n’est pas le tableau de bord lui-même, mais la décision qu’il permet
    • Certaines équipes ont besoin de meilleure backpressure avant de déléguer davantage
    • Certains groupes produit disposent déjà, pour un type de composant étroit, d’un schéma de dark factory répétable
    • Certains workflows de conformité ont besoin de frontières d’outils gouvernées
    • Certaines skills doivent être déplacées vers la plateforme parce que cinq équipes les ont réinventées de manière erronée
    • Le harnais collecte, le hub aide l’organisation à décider, et la couche de capacités réinjecte l’apprentissage dans le travail

Si cela devient de la surveillance des employés, c’est un échec

  • Si ce cadre se transforme en système de notation des employés, tout s’effondre
    • Si les employés pensent que l’organisation mesure s’ils utilisent assez l’IA, ils manipuleront les signaux
    • S’ils pensent que toute expérimentation deviendra une attente de productivité, ils cacheront leurs essais
    • S’ils pensent que leurs meilleurs workflows vont immédiatement devenir la nouvelle charge de base, ils les garderont privés
    • L’entreprise obtiendra alors la pire forme d’adoption possible : une conformité visible et un apprentissage invisible
  • La bonne question n’est pas « qui utilise suffisamment l’IA ? »
    • Où l’IA a-t-elle transformé le travail d’une manière dont l’organisation peut apprendre ?
    • Quelles boucles sont devenues plus saines ?
    • Quelles équipes ont besoin de meilleure backpressure avant de déléguer davantage ?
    • Si les prototypes deviennent du vrai logiciel, quelles équipes produit ont besoin d’un environnement différent ?
  • Les politiques sont nécessaires, mais comme l’apprentissage, la gouvernance ne devient réelle qu’à travers l’usage
    • Quand les agents touchent à des tâches proches des opérations
    • Quand des responsables produit construisent des prototypes au lieu d’écrire des spécifications
    • Quand des développeurs délèguent une analyse de cause racine
    • Quand les dépenses en tokens augmentent et que la direction exige des réponses
    • L’organisation découvre alors si elle a construit un système d’apprentissage, ou si elle a simplement acheté beaucoup de licences

La phase intermédiaire complexe n’est pas une phase à subir

  • La première phase de l’adoption de l’IA concernait l’accès
    • Qui reçoit les outils, qui obtient l’autorisation, qui négocie les contrats, qui peut tester les derniers modèles sans ouvrir un ticket achat
    • Cette phase reste importante, mais ne constituera pas longtemps un facteur différenciant
    • L’accès à l’intelligence de pointe peut s’emprunter, mais ni le contrôle opérationnel ni l’apprentissage organisationnel ne s’empruntent de la même manière
  • L’avantage suivant, c’est la vitesse d’apprentissage
    • Qui trouve les vrais schémas plus vite ?
    • Qui fait passer les découvertes de l’individu à l’équipe, puis de l’équipe aux capacités de l’organisation ?
    • Qui introduit de la backpressure dans les boucles agentiques pour éviter que les agents ne se dispersent ?
    • Qui déploie des capacités agentiques utiles sans les transformer en gigantesques agents d’entreprise censés convenir à tout le monde ?
    • Qui utilise l’ingénierie agentique pour rendre l’agilité plus réelle, au lieu d’ajouter l’IA aux rituels existants ?
  • Il est difficile de comprendre ce changement en attendant un playbook d’adoption définitif
    • Au lieu d’attendre les réponses finales des vendors, des consultants ou des laboratoires IA, il faut instrumenter le travail réel, partager les apprentissages imparfaits, laisser les autres pointer les failles, et itérer ouvertement

1 commentaires

 
GN⁺ 1 시간 전
Avis sur Hacker News
  • Dans les environnements de grandes entreprises, l’adoption de l’IA dépasse rarement les équipes de développement, et seuls les développeurs peuvent utiliser GitHub Copilot
    Il faut 6 à 12 mois pour qu’un code passe du commit au déploiement en production, et la vitesse de développement n’a jamais été le goulot d’étranglement principal
    Ce qui prend du temps, ce sont les procédures comme le provisionnement d’infrastructure, les tests, les validations, la gestion du changement et les calendriers de déploiement, et l’IA ne fait qu’aggraver le goulot après le développement en empilant les changements devant le train des releases
    Pour obtenir un retour sur investissement sur le coût des tokens, les grandes entreprises doivent apprendre à déployer leurs logiciels plus vite, et le code non déployé n’est pas un actif mais une dette

    • La direction voit encore le logiciel comme une chaîne d’assemblage et pense qu’« on fabrique du logiciel comme Ford fabrique des voitures »
      Le développement logiciel est certes inefficace, mais le cœur du problème n’est pas l’écriture du code, c’est l’enquête et la conception nécessaires pour comprendre quel code il faut écrire, et cet aspect est largement ignoré
      Quand Microsoft clame « du code 50 % plus vite ! », les dirigeants entendent « des produits 50 % plus vite, et de l’argent 50 % plus vite »
      Dès qu’on exige un retour sur investissement, cela risque de tourner à la catastrophe, et pour l’instant tout le monde évite simplement de mesurer
      Un jour, des investisseurs diront « on a dépensé 2 millions de dollars, produisez 4 millions de dollars de bénéfice net », mais il est peu probable qu’un tel résultat arrive
      Copilot et Claude ne résolvent pas les vrais goulots d’étranglement : la connaissance organisationnelle ancienne, les solutions particulières non documentées et les possibilités d’usage futur
      Le code n’est ni le vrai produit ni le vrai travail ; dans une base de code saine, c’est presque un sous-produit gratuit de la conception et de la recherche
      Une fois qu’on a transformé « l’équipe achats a du mal à utiliser la recherche » en ticket exploitable, le composant de filtre de recherche React est en pratique déjà déterminé, et le codage ressemble surtout à une procédure formelle de 10 minutes
      Même si Copilot ramène cela à 5 minutes, ce n’est pas très impressionnant face aux 6 heures de réunions et d’appels en amont
    • Les grandes entreprises n’ont même pas encore appris le principe de base selon lequel moins il y a de code, mieux c’est, donc il est difficile de s’attendre à ce qu’elles assimilent soudain des concepts plus avancés comme déployer plus vite
    • Dans des systèmes suffisamment grands, on atteint réellement un point où plus de code produit l’effet inverse de ce qui est nécessaire
      La nutrition et les calories aussi ne sont utiles que jusqu’à un certain seuil, puis les rendements diminuent avant de devenir finalement négatifs
      Ce n’est pas une métaphore parfaite, mais elle aide à adopter le modèle mental selon lequel produire davantage peut en réalité créer moins de valeur
      Un client a dit que la documentation était complète et détaillée, mais trop écrasante ; au final, quelques bullet points courts transmettaient mieux l’essentiel qu’un document de 5 pages
    • Rien de vraiment nouveau : simplement la théorie des contraintes à l’ère de l’IA
      [0] https://en.wikipedia.org/wiki/Theory_of_constraints
      [1] https://www.goodreads.com/book/show/113934.The_Goal
      [2] https://www.goodreads.com/en/book/show/17255186-the-phoenix-...
    • Aujourd’hui, dans les plus grands environnements d’entreprise, l’adoption de l’IA semble avoir dévié dans une direction encore pire
      L’équipe finance est venue demander si elle pouvait vibe coder une application de planification financière avec Copilot, Cursor et Claude, en ajoutant même que « le CFO a testé Lovable, a été convaincu, et nous a dit de vibe coder l’app »
      Ils savaient qu’il suffit de dire « le CFO l’a demandé » pour figer les dirigeants, et ont donc utilisé cet argument
      À la fin, ils ont même emballé ça dans une formule crédible du type « il faut vérifier si une application vibe codée avec un niveau approprié de sécurité des données et de maintenabilité peut exister dans le domaine de la finance d’entreprise »
      Ce qui est encore plus sidérant, c’est que ce raisonnement vient d’une entreprise qui fait plus de 20 milliards de dollars de chiffre d’affaires annuel
  • Pour un ingénieur ordinaire comme moi, utiliser l’IA au travail n’apporte aucun avantage concret
    L’entreprise nous fait bouillir à petit feu, et l’élite de HN — investisseurs, dirigeants, célébrités, ingénieurs du tout premier rang — dira : « comment peut-on être contre l’innovation ? »
    L’IA/les LLM ne sont pas une innovation du type TCP/IP, Linux ou Postgres
    Des choses comme Claude, Codex, Gemini ou Grok existent pour générer du profit, et servent d’outils pour extraire jusqu’à la dernière goutte de productivité avant de pouvoir licencier les gens dès qu’ils ne sont plus nécessaires
    Si l’IA vous intéresse, mieux vaut utiliser des modèles open source et s’en servir sur des projets personnels

    • Le jeu n’est pas fini, il est en train de changer
      L’IA peut produire beaucoup de code, mais on a toujours besoin d’ingénieurs qui comprennent réellement ce qu’il se passe, et cela a toujours été le vrai goulot d’étranglement
      Les postes juniors peuvent disparaître, mais les ingénieurs senior semblent tranquilles pour un moment
      Moi aussi je suis instinctivement contestataire, et c’est une leçon apprise difficilement : une fois salarié, on est embauché pour faire ce que veut la direction
      Si on résiste, il ne reste qu’à espérer qu’ils ne s’en rendent pas compte ou qu’ils s’en moquent, car il est difficile de provoquer un grand changement
    • L’avantage, ce n’est pas simplement que le travail devient beaucoup plus facile ? Je ne vois pas ce que je rate
    • Il existe bien un récit selon lequel les ingénieurs sont exploités par les capitalistes, mais même du point de vue d’un dirigeant, si on enlève la logique du « bonus du trimestre prochain », tout cela semble insensé
      Je ne sais pas si vous vous souvenez de ce que SCO, en s’effondrant, a infligé au secteur
      Je ne comprends toujours pas pourquoi les entreprises remettent leur information secrète interne — code, processus, demandes clients, politique interne, visions de la direction — à des startups et à de grandes entreprises peu dignes de confiance
      Microsoft aussi a eu une époque où l’entreprise était connue pour les accords de confidentialité et les abus commerciaux
      Je ne crois pas une seconde que les géants du LLM s’abstiendront d’entraîner leurs modèles sur les données d’entreprise, ni qu’ils s’abstiendront de mentir en disant le contraire
      Si ce secteur commence à s’effondrer, cette ruée vers l’or pourrait laisser une longue et laide traîne derrière elle
    • Hacker News semble entretenir des idées déformées sur ce que les CEO pensent réellement de leurs employés et sur les raisons des licenciements, et c’est une très mauvaise lecture de la situation
      En pratique, ce sont ceux qui n’adoptent pas ces technologies qui se font licencier, et agir ainsi revient à se placer soi-même dans le périmètre des suppressions de poste
      Rien qu’avec le cas Coinbase aujourd’hui, on voit qu’ils écartent ceux qui refusent d’accepter l’avenir
      Ces personnes n’aident pas au progrès, ne poussent pas vers l’avant, et retiennent ceux qui le font
  • L’article met le doigt exactement sur ce messy middle
    Un développeur dont les responsabilités et l’emploi sont en jeu n’a presque aucune incitation à construire ce genre de boucle d’intelligence
    Même si la direction le demande très gentiment, je n’ai aucune envie de partager gratuitement et par pur altruisme mes gains de productivité avec toute l’entreprise
    S’il s’agit d’un outil utile, je peux le partager, mais pour le savoir-faire lié à l’usage de l’IA ou au paramétrage d’agents, mieux vaut le garder pour soi si ce partage n’est pas reconnu
    Dans notre entreprise, ils ont créé un prix du « prompt de la semaine » et des sessions déjeuner pour accélérer l’adoption, et certaines équipes développent même ce type de dynamique
    Mais sans récompense financière réelle ni sécurité de l’emploi, le risque et le coût de diffuser ce savoir retombent entièrement sur les développeurs

    • J’ai du mal à comprendre pourquoi davantage de gens ne raisonnent pas ainsi
      Bien avant que l’IA atteigne son niveau actuel, j’avais créé un CLI personnel pour me simplifier le travail et faciliter l’écriture de scripts d’automatisation
      Des collègues ont vu l’outil et m’ont demandé de le partager, mais ma réponse diplomatique a été non
      Le partager m’ajouterait une charge de support et créerait un rendement négatif : tout le monde deviendrait aussi productif que moi et je perdrais mon avantage
      En plus, la direction ne reconnaît pas ma créativité comme un actif, donc cela n’améliorerait pas non plus ma sécurité de l’emploi
      Je peux être licencié de toute façon dans un avenir proche, donc je n’ai aucune envie d’aider l’entreprise par pure bonne volonté
      Si les développeurs s’inquiètent pour leur emploi dans le marché actuel, leurs workflows personnels doivent être traités comme des secrets commerciaux
      Cet exemple ne se limite pas à l’IA, mais il s’applique exactement de la même manière aux workflows IA
      Sur un marché favorable aux salariés, partager ce type de savoir avec l’organisation pouvait parfois être amusant, mais sur un marché favorable aux employeurs, si on veut accéder à mes choix personnels, il faut payer
    • Ce n’est pas idéal de devoir considérer son emploi de manière hostile, mais tant que l’entreprise conserve une logique à somme nulle du type « si tout le monde est aussi productif et accomplit autant, pourquoi avons-nous encore autant de personnes ? », c’est inévitable
      Je ne vois pas le travail comme une famille, mais j’aimerais qu’on puisse bien travailler et partager entre nous sans avoir l’impression de creuser sa propre tombe
    • Si un employeur attend de vous que vous partagiez gratuitement et par altruisme votre temps, alors c’est de l’exploitation
      La plupart des gens sont payés pour travailler, et pendant leurs heures de travail ils doivent évidemment travailler pour leur employeur
    • Les « secrets » qu’on cache ressemblent la plupart du temps à la liste de prompts surpuissants de Gary Tan
      En réalité, il y a très peu de choses que les autres seraient incapables d’imaginer eux-mêmes
      D’après mon expérience, même quand on partage des prompts ou des techniques, peu de gens les utilisent, ou bien c’est tellement basique qu’ils avaient déjà chacun leur propre version
      Même avant l’IA, si quelqu’un ne s’intéressait pas à xyz, ce n’est pas parce qu’on lui apporte la solution sur un plateau qu’il commencera soudain à s’y intéresser après l’IA
    • Une autre perspective est que les outils IA profitent d’abord à l’individu, qui convertit cette productivité accrue en temps libre
      Les tâches ennuyeuses disparaissent presque complètement, et certains problèmes se règlent presque tout seuls si on les laisse tourner, ce qui rend 1 à 4 heures par jour
      Cette personne va-t-elle raisonnablement utiliser ce temps pour chercher encore plus de travail ? Sauf si c’est sa propre entreprise ou qu’elle a une motivation particulière, c’est peu probable
  • En tant qu’analyste systèmes retraité depuis 3 ans, j’éprouve de la peine pour mes jeunes collègues
    En 2023, j’ai été parmi les premiers de l’équipe à utiliser l’IA pour démêler du code legacy en Perl dont l’auteur initial était parti depuis longtemps sans presque laisser de commentaires ni de documentation
    Ce code exécutait des tâches importantes, et l’IA nous a sortis d’un mauvais pas, ce qui a impressionné tout le monde vis-à-vis de cette nouvelle technologie
    Mais de plus en plus, cela semble moins être un outil que je peux utiliser qu’une chose qu’on m’impose
    Personne n’a demandé cela
    Je ne sais pas à partir de quand l’inspiration et la réflexion ont commencé à être dévalorisées et considérées comme sans valeur au nom du traitement instantané de tout, mais le travail a perdu son âme

  • L’IA en elle-même n’est pas si utile que ça
    Les agents oublient, font suffisamment d’erreurs pour qu’il faille tout vérifier, et au final la productivité peut même baisser
    Elle devient vraiment intéressante quand on traite l’IA comme un outil pour fabriquer d’autres outils
    Par exemple, en lui faisant construire des outils qui forcent une tâche à continuer jusqu’à atteindre un certain niveau de qualité, ou qui exécutent des contrôles de conformité sur les sorties pour indiquer quoi corriger
    C’est seulement à ce moment-là qu’on peut faire confiance au travail
    Aujourd’hui, la plupart des rôles et workflows sont conçus autour de l’idée de manier un outil donné pour accomplir une tâche précise, et dans un tel système l’IA ne peut s’insérer qu’à la marge

  • Bon article, et le passage sur le fait que la façon dont l’organisation définit le travail est en train de changer m’a particulièrement marqué
    Dans l’ancien modèle, la performance et les OKR étaient liés à des domaines fonctionnels, à des intitulés de poste et à des attentes propres à chaque rôle
    À l’ère de l’IA, ces frontières commencent à s’effondrer
    Le problème plus profond est psychologique et organisationnel : les gens vont continuer à négocier la frontière entre « c’est mon travail » et « ce n’est pas ma responsabilité »
    D’où la vraie question d’adoption : quel est l’avantage à être visiblement reconnu comme power user de l’IA ?
    Si je révèle que je peux aller plus vite, mieux faire et travailler à travers davantage de fonctions, pourquoi le montrerais-je à moins que l’entreprise ne mette en place un système clair de reconnaissance, de récompense et de progression de carrière ?

    • Au final, c’est la personne responsable de corriger les incidents de production et d’assurer la maintenance qui récupère la propriété
      Dans un monde où des agents traversent ces frontières, cela peut devenir assez chaotique
      L’ingénieur IA entouré d’une nuée d’agents assumera-t-il vraiment la responsabilité de faire tourner l’ensemble dans la durée ? J’en doute fortement, mais on verra bien
    • Si on crée un système pour récompenser les power users de l’IA, la carrière elle-même peut devenir problématique
      Quelqu’un attiré par ce nouveau type de poste, en combinant quelques semaines de conseils sur le contexte propre à l’entreprise avec l’approche la plus récente, finit par se retrouver dans le rôle d’expert métier destiné à être éliminé
    • Si un membre de l’équipe commence à faire tout cela par défaut, tout va bien seulement jusqu’au moment où l’écart devient visible entre cette personne et le reste de l’équipe
  • À la question « où est le retour sur investissement des 2 millions d’euros versés à Anthropic l’an dernier ? », la réponse est : la plaque platine de tokens façon YouTube accrochée dans le bureau du CEO

  • Le biais implicite dans la question « où est le retour sur investissement des 2 millions d’euros versés à Anthropic l’an dernier ? » est proprement absurde
    Le vrai problème, c’est que l’IA générative ne produit pas de retour sur investissement visible
    Pourtant, la « solution » proposée consiste à réorganiser toute l’organisation de développement autour de cette technologie et à inventer de nouveaux outils
    Le véritable objectif de ce type de texte n’est pas son sujet apparent, mais la normalisation des hypothèses sur lesquelles repose la discussion

    • Comme si les LLM ne pouvaient pas échouer, et que s’ils échouent, c’est uniquement parce que vous les avez fait échouer
  • Travailler dans ce secteur en ce moment est vraiment pénible
    Dans l’entreprise où je suis, les managers laissent même les non-développeurs utiliser l’IA
    J’ai vraiment envie de démissionner et de partir dans un autre domaine, mais là où j’habite, un salaire d’entrée ne permettrait pas de payer le loyer, et je prends de l’âge

  • Comparer la promesse de l’IA au boom des dot-com m’a aidé à y voir plus clair, et il y a beaucoup de points communs
    Mais Internet était un concept plus simple du point de vue des entreprises
    En gros, cela voulait dire que les gens pouvaient désormais acheter des choses depuis leur ordinateur
    Quelle est la promesse de l’IA ? Approcher une capacité de raisonnement sur les choses ?
    C’est un puzzle d’implémentation réellement bien plus difficile à résoudre
    En dehors du travail de codage, je n’ai toujours pas l’impression d’avoir vu quelque chose de vraiment concret