- Dans l’industrie du logiciel, le burnout des ingénieurs s’aggrave, et en particulier les ingénieurs juniors provoquent des problèmes de qualité du code et de collaboration par usage abusif des outils d’IA
- Les retours des ingénieurs seniors ne sont plus utilisés comme des occasions d’apprentissage, mais comme de nouveaux prompts à envoyer à l’IA, et le « code écrit par l’IA » épuise les revues de toute l’équipe
- Dans certaines organisations, du code incomplet généré par l’IA est présenté comme une « réussite », ce qui crée une atmosphère qui encourage la dépendance à l’IA
- L’auteur explique avoir ressenti un malaise et une sensation d’étrangeté en recevant lui-même des réponses de code produites par l’IA, et critique le fait que l’IA détériore au contraire la culture de l’apprentissage et du mentorat
- Il souligne aussi que l’écosystème des startups IA est au final insoutenable à cause de sa non-rentabilité, de sa consommation électrique et de ses problèmes environnementaux, et que la situation actuelle ne diffère guère d’une imposture où « l’empereur est nu »
Introduction : un environnement d’ingénierie inquiétant
- Ces derniers temps, le burnout s’intensifie parmi les ingénieurs
- Dans les organisations, on attend des ingénieurs seniors qu’ils examinent et contribuent à des « fonctionnalités fondées sur l’ambiance (mème) » qui ne fonctionnent pas réellement
- D’après mon expérience, les meilleurs ingénieurs ont toujours à cœur d’aider les nouveaux membres de l’équipe à progresser
- Mais au lieu d’utiliser ces retours comme une occasion de grandir, des développeurs débutants s’en servent simplement comme du prochain prompt à envoyer à une IA générative
- J’ai personnellement vu de nombreux ingénieurs juniors utiliser des outils de LLM (grands modèles de langage) à un niveau proche de l’abus
Cas concrets dans l’organisation : les dégâts de l’abus d’IA
- Lors d’un récent town hall dans l’entreprise, j’ai vu des ingénieurs juniors faire une démonstration de nouveaux livrables
- Ils semblaient ne même pas bien comprendre l’objectif ni le fonctionnement de la fonctionnalité
- Pourtant, dans les grandes organisations, l’accent est mis sur la mise en scène du « succès », indépendamment des résultats réels
- Lorsqu’un senior manager a présenté leurs usages de l’IA, il a expliqué fièrement : « voici 4 000 lignes de code écrites par Claude », et cela a été accueilli par des applaudissements
- Moi aussi, en examinant du code à la suite d’une demande de petite amélioration sur une fonctionnalité existante, j’ai demandé du contexte à l’ingénieur junior qui l’avait récemment modifiée
- Je lui ai envoyé l’URL du commit Github avec ma question, mais il semble qu’il ait saisi le contenu dans un LLM puis m’ait simplement recopié la réponse renvoyée
- Ce processus m’a laissé une curieuse impression d’étrangeté et d’inconfort
La pente IA et les limites de la revue de code
- À travers le cas d’un ami, j’ai confirmé qu’on voyait réellement des ingénieurs perdre du temps pendant un mois à examiner et tenter de fusionner du code généré automatiquement par un LLM (des PR vibe-codées)
- Un autre ami a raconté son épuisement à devoir relire à répétition du « code bâclé » produit par l’IA
- Grâce à l’IA, ni la qualité du code ni l’apprentissage ne progressent ; seul le travail répétitif augmente
La vraie valeur de la culture de développement et de la progression humaine
- Tous les ingénieurs progressent étape par étape grâce à leurs collègues et à leurs mentors
- Enseigner directement et faire grandir les autres est l’essence de la culture de l’ingénierie logicielle
- Mais il devient difficile de croire à la valeur de cet investissement quand le résultat est aussitôt copié comme données d’entraînement pour le « dernier modèle »
- Cela conduit à une question fondamentale : ne vaudrait-il pas mieux entraîner directement le modèle plutôt que les ingénieurs juniors ?
- Un tel monde représente une vision profondément sombre.
Une expérience sans IA et conclusion
- L’auteur propose très concrètement de faire l’expérience suivante : « essayez d’arrêter d’utiliser l’IA »
- Lui-même a récemment réinitialisé son ordinateur et a mis fin à son abonnement à Claude Pro
- Faire quelques recherches, lire Stack Overflow et la documentation officielle lui a au contraire permis d’aboutir à des conclusions bien plus fiables
- Il en vient à penser que son propre jugement est supérieur aux résultats fournis par les LLM en matière de précision et de fiabilité.
La valeur économique des outils d’IA générative, et leurs limites intrinsèques
- Il pose la question suivante : « l’IA est-elle vraiment utile ? »
- Objectivement, sa valeur suscite de sérieux doutes
- Le parcours typique d’une startup IA est le suivant :
- de « l’IA » est appliquée à un domaine existant, et une jeune entreprise apparaît au nom de l’efficacité
- la startup IA parvient à lever des fonds auprès du capital-risque
- elle paie des frais d’utilisation à un fournisseur de services IA (OpenAI, etc.)
- la startup IA elle-même ne parvient pas à générer de bénéfices
- Pris isolément, ce processus ne diffère pas beaucoup de l’écosystème VC traditionnel, mais la différence clé est que même les fournisseurs de services (OpenAI, etc.) ne sont toujours pas rentables
- La technologie elle-même est fondamentalement inefficace et mal adaptée à une expansion de masse
- Sa consommation d’électricité excessive et ses effets négatifs sur l’environnement constituent aussi un problème grave
Conclusion : la nécessité de voir la réalité en face
- On peut toujours espérer que la loi de Moore revienne, ou que tout le monde devienne riche avant la mort thermique de l’univers
- Mais si l’on regarde la réalité en face, le business de l’IA générative relève d’une forme de fantasme, un phénomène d’« empereur nu »
Aucun commentaire pour le moment.