20 points par GN⁺ 2026-02-16 | 6 commentaires | Partager sur WhatsApp
  • La production de masse de code complexe généré par l’IA se généralise, et le phénomène consistant à produire du code que personne ne lit se répand dans toute l’industrie
  • Les dirigeants s’en servent pour justifier des réductions d’effectifs liées à l’IA, tandis que les développeurs subissent une pression pour atteindre un quota de code produit par l’IA
  • Ce « vibe coding » provoque un état de « dark flow » comparable aux mécanismes addictifs du jeu d’argent, créant une illusion de productivité
  • Des recherches montrent qu’avec des outils de codage IA, on a l’impression d’être 20 % plus productif, alors qu’en réalité on est 19 % plus lent
  • L’IA est utile, mais elle ne remplace ni la réflexion, ni la créativité, ni les compétences humaines en ingénierie logicielle ; y renoncer expose au contraire à un risque de régression

La diffusion du vibe coding et la prise de conscience du problème

  • Le vibe coding consiste à produire en masse du code complexe généré par l’IA, au point de le rendre difficile à lire ou à maintenir pour un humain
    • Certaines entreprises justifient des licenciements en affirmant que l’IA peut remplacer le travail humain
    • Les développeurs subissent une pression : s’ils n’atteignent pas leur quota de code généré par l’IA, ils risquent d’être désavantagés dans leur évaluation de performance
    • Chez les étudiants comme chez les salariés, on observe aussi une hésitation à investir dans leur propre développement sous l’effet de l’angoisse que « l’IA va bientôt remplacer mon travail »
  • L’IA est réellement utile, mais le vibe coding exige de la prudence et peut entraîner des conséquences négatives lorsqu’il est mal employé

La différence entre le « flow » et le « dark flow »

  • Le psychologue Mihaly Csikszentmihalyi définit le « flow » comme un état d’immersion où défi et compétence sont en équilibre
  • À l’inverse, on peut aussi ressentir une immersion dans des activités sans lien avec la compétence, comme les jeux d’argent, ce qui relève d’un « faux flow »
    • Comme dans le cas des machines à sous avec le Loss Disguised as a Win (LDW), on subit en réalité une perte tout en ayant l’illusion d’avoir gagné
    • Des recherches montrent que le LDW provoque des réactions physiologiques proches de celles d’une vraie victoire, renforçant ainsi une immersion addictive
  • Ce phénomène est appelé « dark flow » ou « junk flow », c’est-à-dire un état d’immersion addictive sans progression

Les ressemblances entre vibe coding et jeu d’argent

  • Le développeur Armin Ronacher explique qu’après avoir utilisé des outils de codage IA, il avait produit beaucoup de code sans presque rien pouvoir réellement réutiliser
    • Cela correspond à une structure d’illusion similaire à la « fausse victoire » dans le jeu d’argent
  • Le vibe coding viole les conditions du flow sur plusieurs points
    • Absence de feedback clair sur la performance, remplacé par un faux sentiment d’accomplissement
    • Déséquilibre entre le niveau de défi et le niveau de compétence
    • Illusion de contrôle qui amène l’utilisateur à croire qu’il maîtrise les résultats
  • La qualité du code généré par l’IA ne révèle souvent ses problèmes qu’après plusieurs semaines, lorsque les bugs et une complexité ingérable en maintenance apparaissent enfin
  • Les LLM comme les machines à sous sont conçus pour maximiser les réactions psychologiques de l’utilisateur, afin d’encourager un usage continu

Illusion de productivité et « narrateur peu fiable »

  • Selon une étude de METR, les développeurs utilisant des outils IA avaient l’impression d’être 20 % plus rapides, alors qu’ils étaient en réalité 19 % plus lents
    • Cela représente un écart de 40 % entre l’efficacité perçue et l’efficacité réelle
  • Les textes rédigés avec l’IA aussi peuvent sembler comparables en apparence tout en étant de moindre qualité
    • Le billet de blog d’un chercheur en IA, une fois rédigé par l’IA, a adopté un style moins lisible qu’auparavant
  • Les humains ont du mal à évaluer objectivement leur propre productivité et tendent à la surestimer après avoir utilisé l’IA

Prévisions erronées et risques pour la carrière

  • Les prévisions selon lesquelles l’IA remplacerait complètement le codage se sont répétitivement révélées fausses
    • Geoffrey Hinton avait prédit qu’avant 2021, l’IA remplacerait les radiologues, ce qui ne s’est pas produit
    • Sundar Pichai et Jeff Dean de Google avaient affirmé qu’avant 2023, tous les data scientists utiliseraient des outils automatiques de conception de réseaux neuronaux, ce qui ne s’est pas concrétisé
    • Dario Amodei d’Anthropic a prédit qu’avant fin 2025, l’IA écrirait 90 % de tout le code, sans fondement solide
  • Dans ce contexte, cesser de développer ses propres compétences sur la base de perspectives exagérées est risqué
    • Le rythme des progrès de l’IA a été constamment surestimé par rapport à la réalité

L’importance durable de la réflexion et de la créativité humaines

  • Les agents de codage IA génèrent du code syntaxiquement correct, mais
    • ils ne savent pas produire des abstractions utiles, une bonne modularisation ni une meilleure structure de code
    • autrement dit, le codage a été automatisé, mais pas l’ingénierie logicielle
  • Les textes générés par l’IA aussi peuvent être naturels sur le plan grammatical sans pour autant affiner la pensée ni dégager l’essentiel
  • Jeremy Howard avertit que « si l’on délègue entièrement sa réflexion à l’IA, on perd sa capacité à apprendre et à progresser »
    • L’IA est utile comme outil, mais ne remplace pas les capacités humaines fondamentales

6 commentaires

 
kiga183 17 일 전

Lorsqu’on évalue la capacité d’une personne à travailler, il y a un élément qu’on appelle l’« attitude ». Au-delà des consignes de travail et des ordres du supérieur, la manière dont on aborde soi-même son travail compte. Cette attitude se manifeste par un intérêt constant pour le travail, de la perspicacité et un sens des responsabilités. Parmi ces éléments, le sens des responsabilités est particulièrement important. L’IA peut imiter beaucoup de choses, mais elle n’a pas de sens des responsabilités. L’IA peut évaluer un résultat, mais elle ne peut pas évaluer le sens des responsabilités dans le processus.

 
kiga183 17 일 전

L’IA sait bien répondre au « comment », mais elle ne sait pas pourquoi il faut faire les choses. Chercher à comprendre la finalité fondamentale d’un travail, avoir la curiosité d’explorer de nouvelles voies au prix d’essais et d’erreurs, et choisir une direction en fonction d’un objectif, voilà ce que seuls les humains peuvent faire. Le sens des responsabilités ne consiste pas seulement à poursuivre un résultat, mais à garder l’objectif en vue tout au long du processus, en continuant à questionner et à explorer.

 
kiga183 17 일 전

La capacité à trouver de manière créative d’autres approches que le manuel et les consignes découle elle aussi d’une attitude responsable.

 
dieafterwork 2026-02-17

Je suis tout à fait d’accord.

 
GN⁺ 2026-02-16
Commentaires sur Hacker News
  • Je me demande quel est le plus grand risque entre utiliser trop l’IA et ne pas l’utiliser assez
    Pour l’instant, le premier me semble bien plus dangereux. Il y a les bugs absurdes, les architectures sans issue, les problèmes de sécurité, la baisse du sentiment de propriété du code et la perte d’occasions d’apprendre
    À l’inverse, moins utiliser l’IA réduit la productivité, mais une compréhension profonde de la base de code et l’entraînement peuvent devenir des atouts plus précieux sur le long terme
    Personnellement, je pense que les idées créatives qu’on obtient en se confrontant directement au code sont ce qu’il y a de plus précieux
    C’est dommage de perdre ces occasions en déléguant trop tôt à l’IA
    • Même avec le codage assisté par IA, si on ne baisse pas ses standards, on finit au contraire par s’impliquer plus profondément
      Comme on fait moins de tâches répétitives, on fatigue moins mentalement et on peut se concentrer sur les problèmes difficiles, ce qui fait émerger de meilleures idées
      L’essentiel, c’est de garder un bon goût et des standards élevés
    • J’ai déjà essayé le codage agentique et je me suis fait entraîner vers une architecture sans issue
      Quand je préparais à l’avance une conception et une documentation détaillées, le taux de réussite était meilleur
      Plus que la génération de code elle-même, c’est la phase de planification et de conception qui est vraiment difficile
      En revanche, utiliser un LLM pour la documentation ou pour écrire du boilerplate fait gagner énormément de temps
    • La manière d’utiliser le codage avec IA varie énormément d’une personne à l’autre
      Certains essaient de terminer une application d’un seul coup, d’autres s’en servent seulement comme d’une simple autocomplétion
      Comme de nouvelles approches apparaissent sans cesse, le mieux est de rester ouvert et d’essayer différentes méthodes
    • Je pense que le cadre « trop d’IA vs pas assez d’IA » est une mauvaise approche
      Avec une nouvelle technologie, la bonne méthode consiste toujours à valider à petite échelle puis étendre progressivement
      La bonne quantité d’IA, c’est celle qui a été « validée »
      C’est triste de pousser ce débat comme un pari de Pascal, et c’est en général la logique de gens qui essaient de vendre quelque chose
  • Du point de vue de quelqu’un qui construit un outil d’automatisation comptable, le Vibe coding est une catastrophe
    Même si l’IA écrit bien le code, les modes d’échec invisibles sont les plus dangereux, comme une erreur subtile dans un calcul fiscal
    De mauvais chiffres peuvent être intégrés discrètement dans un vrai système comptable
    Donc j’utilise l’IA uniquement comme outil d’autocomplétion avancé — je conçois moi-même l’architecture et la logique métier, et je ne l’utilise que pour le code répétitif ou le scaffolding de tests
    Au final, le problème n’est pas le « code écrit par l’IA », mais le code que je ne comprends pas moi-même
    • Le fait que les modes d’échec ne soient pas visibles vaut aussi pour le code écrit par des humains
      • Au contraire, ce risque peut même révéler une absence de gestion des risques
    • Au fond, ce problème est surtout un problème de tests insuffisants
      • Que le code soit écrit par un humain ou par l’IA, sans tests l’échec reste invisible
    • Certains demandent si les erreurs de calcul fiscal ne sont pas détectées par un système de comptabilité en partie double
    • Quelqu’un affirme : « Moi, je traite même des tâches complexes avec l’IA sans problème », et soutient qu’au fond tout se joue sur la qualité du prompt
    • Une autre personne répond que ce genre de problème doit être résolu au niveau de l’architecture, et que l’auditabilité et la capacité de rollback sont essentielles
  • Je suis profondément d’accord avec l’idée que « le codage a été automatisé, mais l’ingénierie logicielle ne l’a pas été »
    Les LLM savent bien écrire des fonctions, mais ils ne savent pas décider quelles fonctions sont nécessaires
    Dans les vrais projets, l’architecture se construit en se heurtant aux goulots d’étranglement du réel
    L’IA a seulement aidé sur la vitesse d’implémentation ; le jugement structurel reste entièrement du ressort des humains
    En particulier, les bugs métier ne seront jamais détectés par un LLM
    Au final, l’architecture et la connaissance du domaine doivent rester sous responsabilité humaine
    • Quelqu’un demande en retour : « Avez-vous seulement demandé au LLM de concevoir l’architecture elle-même ? »
      Si on lui demande seulement « d’écrire du code », ce n’est évidemment pas l’objectif visé, donc il ne peut pas y arriver
    • Une autre personne mentionne un avantage très concret : grâce à l’IA, ses douleurs au poignet ont diminué
  • Je ne pense pas qu’il faille arrêter d’investir dans sa propre progression à cause des prédictions des chercheurs en IA
    Au cours de l’année écoulée, j’ai appris en parallèle la conception logicielle et le Vibe coding
    En étudiant divers livres sur DDD, Clean Architecture, Agile, etc., je suis devenu un bien meilleur ingénieur
    Même si j’utilise l’IA, la responsabilité du code reste toujours la mienne
    On peut progresser dans les deux domaines à la fois
    • Bien utiliser l’assistance IA pour coder est aussi une compétence experte
      Cela demande du temps et de la pratique, mais cela vaut largement la peine d’être appris et ne remplace pas les autres compétences
    • De mon côté aussi, j’ai choisi de lire des livres sur la philosophie de conception logicielle et sur la conception orientée données
      Parce que ce que les LLM font mal, c’est le jugement de haut niveau et la conception de structure
      Un système bien conçu maximise l’efficacité de l’IA
      De plus, apprendre de nouveaux paradigmes aide à mieux évaluer et améliorer le code produit par les LLM
      Des techniques comme BDD, PBT ou la vérification de modèles sont des outils qui rendent le codage avec IA plus sûr
    • À l’inverse, un vétéran de 20 ans d’expérience conseille de jeter DDD sans hésiter, en disant que « ça ne sert à rien »
    • Quelqu’un demande aussi lequel des trois livres sur DDD a été le plus utile
  • J’ai mené deux projets complexes avec Claude Code : au début, la vitesse était stupéfiante, mais au final une erreur critique d’hypothèse a annulé tous les gains
    En apparence, cela ressemblait à une victoire, mais en réalité c’était une victoire déguisant une défaite
    À cela, quelqu’un répond que cette description ressemble presque à la montée et la descente d’une drogue
  • Être un bon programmeur ne fait pas automatiquement de quelqu’un un bon architecte, designer ou PM
    Pour bien exploiter un LLM, il faut les muscles de ces trois rôles à la fois
    • Une autre personne rétorque qu’un bon ingénieur devrait déjà être un bon PM et un bon architecte
    • Une autre critique la culture du design uniforme, en disant que le « bon design » des UI designers ne correspond pas toujours aux vrais utilisateurs
    • Quelqu’un souligne qu’au final, on fait le travail d’architecte, de designer et de manager tout en n’étant traité que comme un développeur
  • La clé du succès, c’est la capacité à définir concrètement les critères de réussite
    Si l’on peut se représenter clairement l’UI/UX souhaitée, on peut déjà obtenir de très bons résultats avec les modèles actuels
    À l’inverse, des prompts du genre « fais-moi ça à peu près » sont dangereux
    Il faut traiter l’IA comme une armure mécanique avancée — pour être vraiment rapide, l’humain doit rester dans la boucle
  • En 2017, GPT produisait un faux texte plausible, mais en 2023 tout a complètement changé
    Le progrès technique va si vite que ce qui était difficile l’an dernier devient aujourd’hui banal
    Même des outils IA utilisés en interne sont en train d’être remplacés par des modèles open source
    J’ai l’impression qu’on vit une sorte de « Don’t Look Up version IA » — tout le monde doit se repositionner pour l’ère de l’IA avant qu’il ne soit trop tard
  • Chacun a sa propre manière d’aborder le codage avec IA, mais, comme le dit Armin, le Vibe coding sans direction est dangereux
    Un ami a passé trois mois à construire un produit avec Cursor, mais il avait plein de fonctionnalités et n’était utile à rien
    Au final, le problème était l’absence de quelqu’un qui comprenne le code
    • Moi, j’utilise l’IA uniquement pour les tâches répétitives et le brainstorming sur les bugs
    • L’IA est plus cohérente pour traiter les corner cases, donc je me concentre sur la conception et l’architecture
  • Je suis surpris qu’il existe des développeurs qui génèrent du code sans même le relire
    Il est difficile de comprendre qu’on ne fasse même pas une vérification mentale de base (sanity check)
    • Certains disent qu’au final, comme le code IA est la plupart du temps correct, cela crée une fatigue de relecture
      • Le problème se cache moins dans le code que dans les motifs architecturaux
    • Une autre personne conseille de valider très tôt, en rappelant que, selon une étude d’IBM, corriger au stade de la conception coûte 15 fois moins cher
    • Quelqu’un affirme carrément que ces gens-là ne sont pas de vrais développeurs
    • Une autre personne analyse que c’est peut-être parce que les couches basses sont devenues trop dignes de confiance,
      • un peu comme nous ne vérifions pas directement les binaires compilés, et qu’on finit donc par croire à tort qu’il en ira de même pour l’IA
 
shakespeares 2026-02-19

Incapable d’apporter une abstraction utile, de modulariser ou d’améliorer la structure du code
>> Je suis d’accord.