1 points par flowkater 1 시간 전 | Aucun commentaire pour le moment. | Partager sur WhatsApp

La fin du « ce n’est pas dans mon périmètre de responsabilité »

  • Le R&R est un outil pour clarifier les responsabilités, pas un bouclier pour y échapper — la responsabilité d’une restructuration relève du jugement stratégique de la direction, mais le point de départ de l’article est qu’il n’est plus sûr non plus de confier la sécurité de sa carrière à ce jugement et à la bonne volonté de l’entreprise

Le gel actuel des recrutements = pas l’IA, mais une normalisation déjà engagée en 2023

  • 2021~2022, excès de liquidités liés au Covid → salaires d’entrée des développeurs à 60 millions de wons, embauche immédiate de diplômés de bootcamps → période de surrecrutement. Une fois les financements taris, les profils issus d’entreprises en faillite et les effectifs surrecrutés se sont déversés sur le marché
  • Selon des données de la Commission des services financiers, l’investissement domestique dans les ventures a baissé de 42 % au premier semestre 2023 par rapport à l’année précédente. D’après Startup Alliance, le montant total investi en 2023 a baissé de 52 %
  • « Ce n’est pas l’IA qui a soudainement cassé le marché de l’emploi des développeurs. L’IA n’a fait que révéler plus vite le vrai visage d’un contrat de travail déjà en train de s’effondrer »
  • Les plus complaisants à l’époque étaient les dirigeants d’entreprise eux-mêmes. Dès que le marché a gelé, l’échec de leur stratégie a été intégralement reporté sur les salariés

Ce que l’IA absorbe, ce n’est pas le code, mais le spécialisme lui-même

  • Google : lors de l’earnings call du T3 2024, 25 % du nouveau code était généré par l’IA → à Cloud Next 2026-04, le chiffre est monté à 75 %. Trois fois plus en un an et demi. La formule clé est « AI-generated and approved by engineers » — rédigé par l’IA, approuvé et assumé par des ingénieurs
  • Meta, Mark Zuckerberg, earnings call T4 2025 : « Nous commençons à voir des projets qui demandaient autrefois de grandes équipes être désormais menés à bien par une seule personne vraiment exceptionnelle »
  • Si une seule personne fait désormais le travail de 10, ce n’est pas seulement une question d’efficacité : cela signifie aussi que le jugement, la coordination, la validation et la responsabilité post-déploiement autrefois répartis sur une grande équipe se retrouvent compressés sur cette seule personne. Les critères de recrutement se déplacent de la quantity vers la quality
  • L’IA ne fait pas disparaître l’expertise ; elle fait disparaître la zone de confort de ceux qui n’ont que l’expertise. Quand le marché se refroidit, les premiers à disparaître sont ceux qui restent confinés à leur seule fonction

Le taste et la capacité de décision ne sont pas non plus une zone de confort

  • Le cadre consistant à dire « puisque l’IA fait ce genre de choses, les humains doivent se concentrer sur le taste et la capacité de décision » est un piège qui compare l’IA et l’humain sur le même plan. Cela signifie aussi qu’à certains niveaux ou dans certains secteurs, le taste et la décision peuvent eux aussi être suffisamment remplacés
  • ThePrimeagen (20 ans d’expérience, présentation I suck du 2026-05-02) : après six mois de slump, il a éliminé deux hypothèses l’une après l’autre. Le goût (taste) ? Non. La quantité de code ? Non. Conclusion : « Si le coût d’une ligne de code a chuté de façon spectaculaire, alors le coût d’une ligne de code correcte augmente de façon spectaculaire »
  • Données des deux côtés : dans l’expérience GitHub Copilot (arXiv 2302.06590), l’achèvement était 55,8 % plus rapide. À l’inverse, dans l’étude METR 2025, des développeurs open source expérimentés utilisant l’IA sur un codebase qu’ils connaissaient très bien étaient au contraire 19 % plus lents. L’IA réduit le coût de production, mais elle ne réduit pas automatiquement le coût de la compréhension du contexte ni celui du bon choix
  • Maquettes de design, première review de code, synthèse des trade-offs d’architecture — même dans le workflow de l’auteur, les zones où « que je décide moi-même ou que l’IA décide, la différence de résultat est minime » sont de plus en plus nombreuses. C’est un signal que le taste est en train d’être absorbé à ce niveau
  • Ce que l’IA ne sait pas faire, ce n’est pas faire un choix plus élégant, c’est assumer les conséquences de ce choix

L’IA ne peut pas assumer la responsabilité — c’est la différence fondamentale

  • Affaire du chatbot d’Air Canada (2024) : le chatbot a fourni à un client de mauvaises informations sur un remboursement → l’entreprise a tenté de considérer le chatbot comme une entité distincte, mais l’organe canadien de règlement des litiges a jugé que « que l’information provienne d’une page statique ou d’un chatbot, la responsabilité incombe à l’entreprise ». L’IA peut produire une réponse, mais la décision de l’exposer reste de la responsabilité des humains et des organisations
  • Révélation personnelle de l’auteur : lors de sa deuxième année comme CTO, quand l’entreprise a commencé à avoir des difficultés à lever des fonds, il n’a demandé qu’à ce moment-là à l’équipe finance de lui envoyer les chiffres mensuels. Il se souvient encore de l’expression du responsable finance : « Pourquoi un CTO regarde-t-il ça seulement maintenant ? » C’est à ce moment-là qu’il a compris que l’ignorance est un autre nom de l’irresponsabilité
  • Critère de recrutement affiché sur la page Careers d’Anthropic : « When it comes to our mission, none of us are bystanders. We each take personal ownership over making our mission successful. » Le critère de recrutement affiché noir sur blanc par l’entreprise qui construit probablement le mieux l’IA est l’ownership
  • Les comportements de ceux qui assument leurs responsabilités et de ceux qui les évitent sont diamétralement opposés. Les premiers demandent « sous quelle forme ce résultat crée-t-il de la valeur pour le client, et à quels indicateurs de l’entreprise est-il lié ? » ; et quand cela échoue, ils expliquent « ce que j’ai raté ». Les seconds restent dans le cadre de leur R&R et, même si l’outcome est mauvais, n’arrivent pas à lâcher leur output
  • Le taste, la décision, la compréhension des principes et la communication sont des capacités au service de la responsabilité, pas des substituts à la responsabilité

Cinq questions que chacun doit se poser

  • ① Le travail que je fais maintenant résout-il quel problème client ? — si vous ne pouvez pas répondre, c’est un travail déconnecté de sa valeur sur le marché externe
  • ② À quels KPI business (revenus/coûts/rétention) ce travail est-il lié, et comment ? — si vous ne pouvez pas l’expliquer en une phrase, cela signifie que vous ne savez pas comment l’entreprise évaluera votre poste
  • ③ Le résultat que j’ai produit a-t-il réellement été utilisé, et puis-je expliquer en trois phrases la cause d’un échec ? — déploiement ≠ usage, produire ≠ atteindre
  • ④ En utilisant l’IA, est-ce que je produis plus, ou est-ce que je valide plus vite ? — c’est le plus grand piège de l’ère de l’IA. Les personnes responsables investissent leurs ressources non pas dans la quantité, mais dans la vitesse de validation
  • ⑤ Variante de « ce n’est pas dans mon R&R » — si vous lâchez un sujet important pour le résultat au motif qu’il est hors des frontières de votre poste, la responsabilité s’en détache en même temps

Les entreprises aussi doivent changer leur système de rémunération — ce n’est pas un texte à sens unique

  • L’auteur précise explicitement dans la seconde partie, pour éviter que le texte ne fasse porter toute la responsabilité aux individus : « si une entreprise demande autant de responsabilité à ses salariés, elle doit aussi payer une rémunération à la hauteur »
  • Ceux qui ont travaillé en généralistes, en assumant des responsabilités et en protégeant la valeur client, évoluaient jusqu’ici dans un domaine rarement correctement valorisé. À l’époque où le spécialisme est absorbé par l’IA, leur valeur est plus élevée que jamais
  • Jasmine Sun, NYT Opinion, 2026-04-30 : « La plupart des gens du secteur de l’IA que je connais pensent que les gens ordinaires sont condamnés. Et ils n’ont absolument aucune idée de ce qu’il faut faire. » Le vrai cauchemar auquel la Silicon Valley est confrontée n’est pas une rogue AI, mais le scénario dans lequel les gens ordinaires perdent leur levier économique à cause de l’automatisation
  • Phrase de conclusion : « L’IA peut remplacer notre travail. Mais elle ne peut pas assumer notre responsabilité à notre place. Voilà pourquoi, à l’ère de l’IA, les personnes les plus précieuses ne sont pas celles qui produisent davantage, mais celles qui assument jusqu’au bout. »

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.