Quand tout le monde a l’IA, mais que l’entreprise n’apprend toujours rien
(robert-glaser.de)- Les gains de productivité individuels apportés par l’IA chez les employés ne se transforment pas automatiquement en apprentissage à l’échelle de l’organisation ; l’enjeu clé est le chemin par lequel les découvertes réelles passent de l’individu à l’équipe puis aux capacités de l’entreprise
- Dans cette phase intermédiaire complexe de l’adoption de l’IA, l’usage d’outils comme Copilot, ChatGPT Enterprise, Claude, Gemini ou Cursor s’est largement diffusé, mais la profondeur d’utilisation varie selon les équipes, et une partie des apprentissages reste cachée, ce qui complique la comparaison et la diffusion
- Les approches classiques de conduite du changement — communautés, réseaux de champions, démos, enquêtes, tableaux de bord — peinent à capturer suffisamment le contexte, les échecs, la validation et l’intervention humaine qui accompagnent l’usage réel de l’IA dans le travail quotidien
- L’ingénierie agentique réduit le coût des itérations et permet de passer rapidement de l’intention au prototype puis à l’évaluation, mais les procédures organisationnelles de Scrum, de sprint et de passation reposent encore sur l’hypothèse que l’itération reste rare
- Les organisations ont besoin à la fois de Agent Operations, de Loop Intelligence et d’Agent Capabilities ; l’important n’est pas de surveiller les employés, mais de disposer d’un harnais de feedback capable de comprendre les boucles de travail réelles pour les transformer en capacités réutilisables et en apprentissage plus rapide
La phase intermédiaire complexe de l’adoption de l’IA, quand l’organisation n’apprend pas
- Dans la perspective de Ethan Mollick,
Leadership, Lab, and Crowd, l’amélioration de la productivité individuelle grâce à l’IA ne devient pas automatiquement une performance à l’échelle de l’organisation- Les employés peuvent écrire plus vite, analyser davantage, automatiser et travailler comme des « cyborgs », sans que l’entreprise n’apprenne presque rien
- Des outils comme GitHub Copilot, ChatGPT Enterprise, Claude, Gemini ou Cursor sont déjà entrés dans les entreprises, et dans chaque équipe, certaines personnes ont pris beaucoup d’avance sur les supports de formation officiels
- Les dirigeants peuvent voir l’usage des licences, le nombre de prompts, les enquêtes, les PoC internes ou les documents des comités de pilotage, mais ils distinguent mal où l’apprentissage réel a lieu
- Dans certaines entreprises, l’IA est immédiatement renvoyée vers le département IT, puis n’avance plus
- Cette phase intermédiaire complexe de l’adoption de l’IA commence quand son usage est largement répandu, mais inégal, partiellement caché, difficile à comparer, et pas encore relié à l’apprentissage organisationnel
- L’unité d’adoption n’est alors plus l’organisation entière, ni même forcément l’équipe, mais la boucle (loop) à l’intérieur du travail réel
Ce qui se passe une fois que tout le monde a Copilot
- La première étape de l’adoption de l’IA ressemble à un déploiement d’entreprise classique, donc reste relativement familière
- On achète des licences, on définit le périmètre d’usage acceptable, on forme, on crée un réseau de champions, et on demande de partager des cas d’usage dans un canal Teams
- Ces canaux peuvent être actifs pendant un temps, puis finir comme un entrepôt interne rempli de bonnes intentions
- À la deuxième étape, les façons d’utiliser l’IA divergent fortement, y compris au sein d’une même entreprise
- Certaines équipes n’utilisent Copilot que comme une forme d’autocomplétion
- D’autres font tourner Claude Code dans des boucles serrées avec tests, review et ajustement continu
- Des responsables produit prototypent directement du logiciel au lieu de produire des écrans Figma
- Un ingénieur senior délègue une analyse de cause racine à un agent et obtient en une heure une solution valable pour un travail qui aurait pris deux semaines sans IA
- Un junior peut produire un code élégant sans savoir quelles hypothèses d’architecture ont été injectées dans le système
- Les équipes support transforment discrètement les tickets répétitifs en automatisations de workflow, et connaissent les vrais points de douleur que le Center of Excellence n’a pas su identifier
- Dans le cadre de Mollick, le leadership donne la direction et l’autorisation, le Crowd fait le travail réel et découvre donc les cas d’usage, et le Lab transforme ces découvertes en pratiques partagées, outils, benchmarks et nouveaux systèmes
- La difficulté centrale est de savoir comment les découvertes passent réellement de l’individu à l’équipe, puis de l’équipe aux capacités de l’organisation
Les méthodes classiques de conduite du changement sont trop lentes
- La plupart des entreprises essaient de traiter l’adoption de l’IA avec leur boîte à outils traditionnelle du changement
- Communautés de pratique, sessions déjeuner, réseaux de champions, supports d’activation, office hours, démos mensuelles, enquêtes et tableaux de bord sont mis à contribution
- Dans les organisations où il faut encore obtenir l’autorisation d’expérimenter, ces approches peuvent déjà être utiles
- Mais les usages intéressants de l’IA émergent dans le travail réel, sans attendre la prochaine réunion de communauté
- Ils apparaissent dans les code reviews, les propositions commerciales, les travaux de recherche, les prototypes produit, les incidents opérationnels, les stratégies de test et les questions de conformité
- Pour certains types de composants produit, des schémas proches de la « dark factory » peuvent apparaître
- On rédige l’intention
- On laisse l’agent tourner dans une boucle souple
- On applique assez de backpressure pour le maintenir sur sa trajectoire
- On évalue les résultats avec des scénarios robustes
- On affine l’intention et on obtient par itération des résultats de haute qualité
- Les apprentissages utiles perdent souvent leur tranchant lorsqu’on les résume en slides de best practices
- Car la vraie valeur venait du contexte manquant, des tests ratés, du comportement étrange d’une API, ou de la friction humaine nécessaire pour remettre l’agent sur les rails quand il partait dans une direction absurde
- Du point de vue de l’elastic loop, la collaboration avec l’IA n’est pas un mode unique
- Elle s’étend d’une co-conduite étroite et synchrone à une délégation plus souple et asynchrone
- La vraie question n’est pas « les gens utilisent-ils l’IA ? », mais quelle taille de boucle l’équipe doit utiliser, où il faut de la résistance, quels artefacts doivent survivre au-delà de la boucle, et comment ces artefacts deviennent de l’apprentissage organisationnel
- Ce sont des questions bien plus difficiles que le simple comptage d’usage des outils ou des tokens
Scrum a été conçu sur l’hypothèse d’itérations coûteuses
- Une grande partie des processus logiciels modernes existe parce que les itérations humaines étaient coûteuses
- Cela inclut la planification de sprint, les estimations, les stand-ups, les user stories, le tri des tickets, les passations, ainsi que les rituels de coordination et de réduction du risque
- Quand une itération prenait plusieurs jours ou plusieurs semaines, il fallait des structures pour éviter de gaspiller des itérations
- L’ingénierie agentique change l’économie de l’itération
- Elle permet de matérialiser davantage d’options
- Elle accélère le passage de l’intention au prototype, puis à l’évaluation
- Elle permet aux responsables produit de voir plus tôt un logiciel fonctionnel
- Elle permet aux ingénieurs de tester plus d’hypothèses avant de décider
- Elle ne rend pas la livraison magiquement facile, mais déplace la contrainte de l’implémentation vers l’intention, la validation, le jugement et le feedback
- Beaucoup d’organisations se disent agiles depuis vingt ans tout en conservant les réflexes organisationnels que l’agilité cherchait précisément à supprimer
- L’IA rend l’agilité réelle plus plausible, mais le système continue d’exiger des engagements sur des sprints de deux semaines, des documents de passation et des procédures fondées sur l’idée que l’itération reste rare
- Les boucles peuvent avancer plus vite que la capacité de l’organisation à digérer ce qu’elle a appris de ces boucles
La facturation de l’IA oblige l’organisation à poser de meilleures questions
- L’usage de l’IA a de fortes chances de devenir beaucoup plus mesurable
- L’ambiance actuelle dans l’entreprise — où tout le monde a accès et où le coût n’est pas encore une préoccupation majeure — ne durera peut-être pas
- Le model routing, les budgets de tokens, la tarification à l’usage, le coût de l’inférence et la gouvernance sur les modèles autorisés pour chaque type de tâche vont devenir plus explicites
- La question importante n’est pas de réduire de façon abstraite le coût des tokens
- De la même manière que la question clé dans la livraison logicielle n’a jamais été de minimiser le nombre de frappes clavier
- La meilleure question est : « Qu’est-ce qui a changé parce que ces tokens ont été dépensés ? »
- Il faut éviter de compter les pull requests
- Quelle boucle s’est refermée plus vite ?
- Quelle décision s’est améliorée ?
- Quelle analyse de cause racine est devenue plus précise ?
- Quelle review a détecté davantage de problèmes ?
- Quelle équipe a appris des schémas réutilisables ?
- Quelle idée produit a été abandonnée plus tôt parce qu’un prototype en a révélé les faiblesses ?
- Où l’IA a-t-elle créé de l’apprentissage, et où n’a-t-elle fait que produire plus d’artefacts ?
- Le « volume produit par token » n’est qu’un vieux réflexe de mesure habillé autrement
- Ce qui compte davantage, c’est quelque chose de plus proche de l’apprentissage par token
Loop Intelligence comme chemin de feedback manquant
- Dans cette phase intermédiaire complexe de l’adoption de l’IA, l’entreprise a besoin de trois capacités
-
Agent Operations
- Gérer quels agents et outils IA sont en cours d’exécution, quels systèmes ils peuvent toucher et quelles données ils peuvent voir
- Cela inclut aussi les actions qui exigent une approbation, l’identité, l’audit, les autorisations et la visibilité à l’exécution
- Comme le travail agentique finit par agir sur des systèmes réels, la dimension contrôle est importante
-
Loop Intelligence
- Identifier quelles boucles assistées par IA ou pleinement agentiques produisent un apprentissage réel
- Voir quelles boucles restent ouvertes, lesquelles déclinent, où les agents créent du levier et où ils se dispersent sur des branches secondaires
- Déterminer quelles équipes restent coincées dans une supervision serrée faute de tests, de contexte ou d’intuition, et lesquelles sont prêtes à déléguer plus largement
-
Agent Capabilities
- Déployer des capacités utiles dans toute l’organisation sans supposer que trois agents géants puissent faire le travail de tout le monde
- L’IA commence à se comporter moins comme une catégorie unique d’application que comme une technologie de base fluide
- Elle s’adapte mal à une logique de zoo d’entreprise avec un « agent RH », un « agent ingénierie » et un « agent commercial » chacun dans sa cage
- Les capacités doivent aller là où le travail réel se produit
- harnais employé
- agents en arrière-plan
- équipes produit
- services de plateforme
- skills locaux
- serveurs MCP
- suites d’évaluation
- runbooks
- exemples
- procédures propres au domaine
Question de plateforme et harnais de feedback
- Au niveau plateforme, la question clé est celle de la propriété des capacités utiles et de leur circulation
- Il faut un moyen pour qu’une compétence agentique utile découverte dans une équipe soit transmise à d’autres sans se transformer en template mort
- Le harnais du développeur, celui du responsable produit, les agents en arrière-plan du support et les workflows de conformité doivent être renforcés différemment
- Certaines capacités doivent rester proches des équipes, d’autres au niveau de la plateforme, et d’autres encore ne doivent pas être généralisées, car leur valeur vient précisément du contexte local
- Si une seule des trois capacités est présente, la situation devient vite étrange
- Agent Operations sans Loop Intelligence devient une bureaucratie du contrôle
- Loop Intelligence sans Agent Capabilities devient une couche d’analyse qui repère des schémas utiles sans pouvoir les réinjecter dans le travail
- Agent Capabilities sans Operations ni Loop Intelligence devient une prolifération d’outils mieux marketés
- Le chemin du contrôle, le chemin de l’apprentissage et le chemin des capacités doivent se rejoindre quelque part
- En interne, on peut appeler cela un harnais de feedback
- Ce que les clients achètent, ce n’est pas un mécanisme élégant, mais de la confiance, de meilleures décisions, un apprentissage plus rapide, moins de gaspillage et une délégation plus sûre
- Pour les clients, le concept de Loop Intelligence Hub peut être plus parlant
- Le harnais de feedback est un dispositif à l’écoute des boucles de travail réelles
- Il observe les tâches, les prompts, les spécifications, les reviews, les scénarios, les hypothèses acceptées ou rejetées, les signaux opérationnels, les reprises de travail, ainsi que les décisions et interventions humaines
- Il n’est pas là pour surveiller les personnes, mais pour comprendre les boucles
- La première version n’a pas besoin d’être une énorme plateforme
- Il suffit de choisir quelques workflows réels, d’instrumenter les points où l’intention, l’action de l’agent, la validation et la décision humaine laissent déjà des traces, puis de collecter assez de feedback qualitatif pour comprendre pourquoi une boucle réussit ou échoue, avant de transformer cela en artefacts d’apprentissage réutilisables
- Le Loop Intelligence Hub transforme les signaux en formats exploitables par l’organisation
- backlog d’activation
- radar de capacités
- briefs d’investissement
- lacunes de gouvernance
- workflows réutilisables
- besoins de formation
- priorités d’évaluation
- Il ne faut pas un tableau de bord universel, mais des sorties adaptées à la pertinence du contexte
- Le résultat intéressant n’est pas le tableau de bord lui-même, mais la décision qu’il permet
- Certaines équipes ont besoin de meilleure backpressure avant de déléguer davantage
- Certains groupes produit disposent déjà, pour un type de composant étroit, d’un schéma de dark factory répétable
- Certains workflows de conformité ont besoin de frontières d’outils gouvernées
- Certaines skills doivent être déplacées vers la plateforme parce que cinq équipes les ont réinventées de manière erronée
- Le harnais collecte, le hub aide l’organisation à décider, et la couche de capacités réinjecte l’apprentissage dans le travail
Si cela devient de la surveillance des employés, c’est un échec
- Si ce cadre se transforme en système de notation des employés, tout s’effondre
- Si les employés pensent que l’organisation mesure s’ils utilisent assez l’IA, ils manipuleront les signaux
- S’ils pensent que toute expérimentation deviendra une attente de productivité, ils cacheront leurs essais
- S’ils pensent que leurs meilleurs workflows vont immédiatement devenir la nouvelle charge de base, ils les garderont privés
- L’entreprise obtiendra alors la pire forme d’adoption possible : une conformité visible et un apprentissage invisible
- La bonne question n’est pas « qui utilise suffisamment l’IA ? »
- Où l’IA a-t-elle transformé le travail d’une manière dont l’organisation peut apprendre ?
- Quelles boucles sont devenues plus saines ?
- Quelles équipes ont besoin de meilleure backpressure avant de déléguer davantage ?
- Si les prototypes deviennent du vrai logiciel, quelles équipes produit ont besoin d’un environnement différent ?
- Les politiques sont nécessaires, mais comme l’apprentissage, la gouvernance ne devient réelle qu’à travers l’usage
- Quand les agents touchent à des tâches proches des opérations
- Quand des responsables produit construisent des prototypes au lieu d’écrire des spécifications
- Quand des développeurs délèguent une analyse de cause racine
- Quand les dépenses en tokens augmentent et que la direction exige des réponses
- L’organisation découvre alors si elle a construit un système d’apprentissage, ou si elle a simplement acheté beaucoup de licences
La phase intermédiaire complexe n’est pas une phase à subir
- La première phase de l’adoption de l’IA concernait l’accès
- Qui reçoit les outils, qui obtient l’autorisation, qui négocie les contrats, qui peut tester les derniers modèles sans ouvrir un ticket achat
- Cette phase reste importante, mais ne constituera pas longtemps un facteur différenciant
- L’accès à l’intelligence de pointe peut s’emprunter, mais ni le contrôle opérationnel ni l’apprentissage organisationnel ne s’empruntent de la même manière
- L’avantage suivant, c’est la vitesse d’apprentissage
- Qui trouve les vrais schémas plus vite ?
- Qui fait passer les découvertes de l’individu à l’équipe, puis de l’équipe aux capacités de l’organisation ?
- Qui introduit de la backpressure dans les boucles agentiques pour éviter que les agents ne se dispersent ?
- Qui déploie des capacités agentiques utiles sans les transformer en gigantesques agents d’entreprise censés convenir à tout le monde ?
- Qui utilise l’ingénierie agentique pour rendre l’agilité plus réelle, au lieu d’ajouter l’IA aux rituels existants ?
- Il est difficile de comprendre ce changement en attendant un playbook d’adoption définitif
- Au lieu d’attendre les réponses finales des vendors, des consultants ou des laboratoires IA, il faut instrumenter le travail réel, partager les apprentissages imparfaits, laisser les autres pointer les failles, et itérer ouvertement
1 commentaires
Avis sur Hacker News
Dans les environnements de grandes entreprises, l’adoption de l’IA dépasse rarement les équipes de développement, et seuls les développeurs peuvent utiliser GitHub Copilot
Il faut 6 à 12 mois pour qu’un code passe du commit au déploiement en production, et la vitesse de développement n’a jamais été le goulot d’étranglement principal
Ce qui prend du temps, ce sont les procédures comme le provisionnement d’infrastructure, les tests, les validations, la gestion du changement et les calendriers de déploiement, et l’IA ne fait qu’aggraver le goulot après le développement en empilant les changements devant le train des releases
Pour obtenir un retour sur investissement sur le coût des tokens, les grandes entreprises doivent apprendre à déployer leurs logiciels plus vite, et le code non déployé n’est pas un actif mais une dette
Le développement logiciel est certes inefficace, mais le cœur du problème n’est pas l’écriture du code, c’est l’enquête et la conception nécessaires pour comprendre quel code il faut écrire, et cet aspect est largement ignoré
Quand Microsoft clame « du code 50 % plus vite ! », les dirigeants entendent « des produits 50 % plus vite, et de l’argent 50 % plus vite »
Dès qu’on exige un retour sur investissement, cela risque de tourner à la catastrophe, et pour l’instant tout le monde évite simplement de mesurer
Un jour, des investisseurs diront « on a dépensé 2 millions de dollars, produisez 4 millions de dollars de bénéfice net », mais il est peu probable qu’un tel résultat arrive
Copilot et Claude ne résolvent pas les vrais goulots d’étranglement : la connaissance organisationnelle ancienne, les solutions particulières non documentées et les possibilités d’usage futur
Le code n’est ni le vrai produit ni le vrai travail ; dans une base de code saine, c’est presque un sous-produit gratuit de la conception et de la recherche
Une fois qu’on a transformé « l’équipe achats a du mal à utiliser la recherche » en ticket exploitable, le composant de filtre de recherche React est en pratique déjà déterminé, et le codage ressemble surtout à une procédure formelle de 10 minutes
Même si Copilot ramène cela à 5 minutes, ce n’est pas très impressionnant face aux 6 heures de réunions et d’appels en amont
La nutrition et les calories aussi ne sont utiles que jusqu’à un certain seuil, puis les rendements diminuent avant de devenir finalement négatifs
Ce n’est pas une métaphore parfaite, mais elle aide à adopter le modèle mental selon lequel produire davantage peut en réalité créer moins de valeur
Un client a dit que la documentation était complète et détaillée, mais trop écrasante ; au final, quelques bullet points courts transmettaient mieux l’essentiel qu’un document de 5 pages
[0] https://en.wikipedia.org/wiki/Theory_of_constraints
[1] https://www.goodreads.com/book/show/113934.The_Goal
[2] https://www.goodreads.com/en/book/show/17255186-the-phoenix-...
L’équipe finance est venue demander si elle pouvait vibe coder une application de planification financière avec Copilot, Cursor et Claude, en ajoutant même que « le CFO a testé Lovable, a été convaincu, et nous a dit de vibe coder l’app »
Ils savaient qu’il suffit de dire « le CFO l’a demandé » pour figer les dirigeants, et ont donc utilisé cet argument
À la fin, ils ont même emballé ça dans une formule crédible du type « il faut vérifier si une application vibe codée avec un niveau approprié de sécurité des données et de maintenabilité peut exister dans le domaine de la finance d’entreprise »
Ce qui est encore plus sidérant, c’est que ce raisonnement vient d’une entreprise qui fait plus de 20 milliards de dollars de chiffre d’affaires annuel
Pour un ingénieur ordinaire comme moi, utiliser l’IA au travail n’apporte aucun avantage concret
L’entreprise nous fait bouillir à petit feu, et l’élite de HN — investisseurs, dirigeants, célébrités, ingénieurs du tout premier rang — dira : « comment peut-on être contre l’innovation ? »
L’IA/les LLM ne sont pas une innovation du type TCP/IP, Linux ou Postgres
Des choses comme Claude, Codex, Gemini ou Grok existent pour générer du profit, et servent d’outils pour extraire jusqu’à la dernière goutte de productivité avant de pouvoir licencier les gens dès qu’ils ne sont plus nécessaires
Si l’IA vous intéresse, mieux vaut utiliser des modèles open source et s’en servir sur des projets personnels
L’IA peut produire beaucoup de code, mais on a toujours besoin d’ingénieurs qui comprennent réellement ce qu’il se passe, et cela a toujours été le vrai goulot d’étranglement
Les postes juniors peuvent disparaître, mais les ingénieurs senior semblent tranquilles pour un moment
Moi aussi je suis instinctivement contestataire, et c’est une leçon apprise difficilement : une fois salarié, on est embauché pour faire ce que veut la direction
Si on résiste, il ne reste qu’à espérer qu’ils ne s’en rendent pas compte ou qu’ils s’en moquent, car il est difficile de provoquer un grand changement
Je ne sais pas si vous vous souvenez de ce que SCO, en s’effondrant, a infligé au secteur
Je ne comprends toujours pas pourquoi les entreprises remettent leur information secrète interne — code, processus, demandes clients, politique interne, visions de la direction — à des startups et à de grandes entreprises peu dignes de confiance
Microsoft aussi a eu une époque où l’entreprise était connue pour les accords de confidentialité et les abus commerciaux
Je ne crois pas une seconde que les géants du LLM s’abstiendront d’entraîner leurs modèles sur les données d’entreprise, ni qu’ils s’abstiendront de mentir en disant le contraire
Si ce secteur commence à s’effondrer, cette ruée vers l’or pourrait laisser une longue et laide traîne derrière elle
En pratique, ce sont ceux qui n’adoptent pas ces technologies qui se font licencier, et agir ainsi revient à se placer soi-même dans le périmètre des suppressions de poste
Rien qu’avec le cas Coinbase aujourd’hui, on voit qu’ils écartent ceux qui refusent d’accepter l’avenir
Ces personnes n’aident pas au progrès, ne poussent pas vers l’avant, et retiennent ceux qui le font
L’article met le doigt exactement sur ce messy middle
Un développeur dont les responsabilités et l’emploi sont en jeu n’a presque aucune incitation à construire ce genre de boucle d’intelligence
Même si la direction le demande très gentiment, je n’ai aucune envie de partager gratuitement et par pur altruisme mes gains de productivité avec toute l’entreprise
S’il s’agit d’un outil utile, je peux le partager, mais pour le savoir-faire lié à l’usage de l’IA ou au paramétrage d’agents, mieux vaut le garder pour soi si ce partage n’est pas reconnu
Dans notre entreprise, ils ont créé un prix du « prompt de la semaine » et des sessions déjeuner pour accélérer l’adoption, et certaines équipes développent même ce type de dynamique
Mais sans récompense financière réelle ni sécurité de l’emploi, le risque et le coût de diffuser ce savoir retombent entièrement sur les développeurs
Bien avant que l’IA atteigne son niveau actuel, j’avais créé un CLI personnel pour me simplifier le travail et faciliter l’écriture de scripts d’automatisation
Des collègues ont vu l’outil et m’ont demandé de le partager, mais ma réponse diplomatique a été non
Le partager m’ajouterait une charge de support et créerait un rendement négatif : tout le monde deviendrait aussi productif que moi et je perdrais mon avantage
En plus, la direction ne reconnaît pas ma créativité comme un actif, donc cela n’améliorerait pas non plus ma sécurité de l’emploi
Je peux être licencié de toute façon dans un avenir proche, donc je n’ai aucune envie d’aider l’entreprise par pure bonne volonté
Si les développeurs s’inquiètent pour leur emploi dans le marché actuel, leurs workflows personnels doivent être traités comme des secrets commerciaux
Cet exemple ne se limite pas à l’IA, mais il s’applique exactement de la même manière aux workflows IA
Sur un marché favorable aux salariés, partager ce type de savoir avec l’organisation pouvait parfois être amusant, mais sur un marché favorable aux employeurs, si on veut accéder à mes choix personnels, il faut payer
Je ne vois pas le travail comme une famille, mais j’aimerais qu’on puisse bien travailler et partager entre nous sans avoir l’impression de creuser sa propre tombe
La plupart des gens sont payés pour travailler, et pendant leurs heures de travail ils doivent évidemment travailler pour leur employeur
En réalité, il y a très peu de choses que les autres seraient incapables d’imaginer eux-mêmes
D’après mon expérience, même quand on partage des prompts ou des techniques, peu de gens les utilisent, ou bien c’est tellement basique qu’ils avaient déjà chacun leur propre version
Même avant l’IA, si quelqu’un ne s’intéressait pas à xyz, ce n’est pas parce qu’on lui apporte la solution sur un plateau qu’il commencera soudain à s’y intéresser après l’IA
Les tâches ennuyeuses disparaissent presque complètement, et certains problèmes se règlent presque tout seuls si on les laisse tourner, ce qui rend 1 à 4 heures par jour
Cette personne va-t-elle raisonnablement utiliser ce temps pour chercher encore plus de travail ? Sauf si c’est sa propre entreprise ou qu’elle a une motivation particulière, c’est peu probable
En tant qu’analyste systèmes retraité depuis 3 ans, j’éprouve de la peine pour mes jeunes collègues
En 2023, j’ai été parmi les premiers de l’équipe à utiliser l’IA pour démêler du code legacy en Perl dont l’auteur initial était parti depuis longtemps sans presque laisser de commentaires ni de documentation
Ce code exécutait des tâches importantes, et l’IA nous a sortis d’un mauvais pas, ce qui a impressionné tout le monde vis-à-vis de cette nouvelle technologie
Mais de plus en plus, cela semble moins être un outil que je peux utiliser qu’une chose qu’on m’impose
Personne n’a demandé cela
Je ne sais pas à partir de quand l’inspiration et la réflexion ont commencé à être dévalorisées et considérées comme sans valeur au nom du traitement instantané de tout, mais le travail a perdu son âme
L’IA en elle-même n’est pas si utile que ça
Les agents oublient, font suffisamment d’erreurs pour qu’il faille tout vérifier, et au final la productivité peut même baisser
Elle devient vraiment intéressante quand on traite l’IA comme un outil pour fabriquer d’autres outils
Par exemple, en lui faisant construire des outils qui forcent une tâche à continuer jusqu’à atteindre un certain niveau de qualité, ou qui exécutent des contrôles de conformité sur les sorties pour indiquer quoi corriger
C’est seulement à ce moment-là qu’on peut faire confiance au travail
Aujourd’hui, la plupart des rôles et workflows sont conçus autour de l’idée de manier un outil donné pour accomplir une tâche précise, et dans un tel système l’IA ne peut s’insérer qu’à la marge
Bon article, et le passage sur le fait que la façon dont l’organisation définit le travail est en train de changer m’a particulièrement marqué
Dans l’ancien modèle, la performance et les OKR étaient liés à des domaines fonctionnels, à des intitulés de poste et à des attentes propres à chaque rôle
À l’ère de l’IA, ces frontières commencent à s’effondrer
Le problème plus profond est psychologique et organisationnel : les gens vont continuer à négocier la frontière entre « c’est mon travail » et « ce n’est pas ma responsabilité »
D’où la vraie question d’adoption : quel est l’avantage à être visiblement reconnu comme power user de l’IA ?
Si je révèle que je peux aller plus vite, mieux faire et travailler à travers davantage de fonctions, pourquoi le montrerais-je à moins que l’entreprise ne mette en place un système clair de reconnaissance, de récompense et de progression de carrière ?
Dans un monde où des agents traversent ces frontières, cela peut devenir assez chaotique
L’ingénieur IA entouré d’une nuée d’agents assumera-t-il vraiment la responsabilité de faire tourner l’ensemble dans la durée ? J’en doute fortement, mais on verra bien
Quelqu’un attiré par ce nouveau type de poste, en combinant quelques semaines de conseils sur le contexte propre à l’entreprise avec l’approche la plus récente, finit par se retrouver dans le rôle d’expert métier destiné à être éliminé
À la question « où est le retour sur investissement des 2 millions d’euros versés à Anthropic l’an dernier ? », la réponse est : la plaque platine de tokens façon YouTube accrochée dans le bureau du CEO
Le biais implicite dans la question « où est le retour sur investissement des 2 millions d’euros versés à Anthropic l’an dernier ? » est proprement absurde
Le vrai problème, c’est que l’IA générative ne produit pas de retour sur investissement visible
Pourtant, la « solution » proposée consiste à réorganiser toute l’organisation de développement autour de cette technologie et à inventer de nouveaux outils
Le véritable objectif de ce type de texte n’est pas son sujet apparent, mais la normalisation des hypothèses sur lesquelles repose la discussion
Travailler dans ce secteur en ce moment est vraiment pénible
Dans l’entreprise où je suis, les managers laissent même les non-développeurs utiliser l’IA
J’ai vraiment envie de démissionner et de partir dans un autre domaine, mais là où j’habite, un salaire d’entrée ne permettrait pas de payer le loyer, et je prends de l’âge
Comparer la promesse de l’IA au boom des dot-com m’a aidé à y voir plus clair, et il y a beaucoup de points communs
Mais Internet était un concept plus simple du point de vue des entreprises
En gros, cela voulait dire que les gens pouvaient désormais acheter des choses depuis leur ordinateur
Quelle est la promesse de l’IA ? Approcher une capacité de raisonnement sur les choses ?
C’est un puzzle d’implémentation réellement bien plus difficile à résoudre
En dehors du travail de codage, je n’ai toujours pas l’impression d’avoir vu quelque chose de vraiment concret