Comment éviter l’atrophie des compétences à l’ère de l’IA
(addyo.substack.com)- Les gains de productivité apportés par les outils d’IA créent un risque d’atrophie des compétences clés (skill atrophy) chez les développeurs
- Une dépendance excessive à l’IA affaiblit progressivement la pensée critique et la capacité à résoudre des problèmes
- Des compétences importantes comme le débogage, la conception d’architecture et la mémoire peuvent peu à peu se dégrader
- Il faut utiliser l’IA comme un outil, tout en conservant absolument l’habitude de réfléchir et d’apprendre par soi-même
- Utilisée comme un mode de collaboration avec l’IA, elle peut améliorer à la fois la productivité et la maîtrise technique
Comment éviter l’atrophie des compétences à l’ère de l’IA
- Dans le domaine du code, l’essor des assistants IA améliore la productivité mais introduit aussi un risque d’atrophie des compétences (skill atrophy)
- L’atrophie des compétences désigne le phénomène par lequel des aptitudes s’affaiblissent avec le temps faute d’usage ou de pratique
- Confier des tâches répétitives à l’IA peut être bénéfique, mais à l’excès cela peut mener à une perte de capacités fondamentales
- Avec le phénomène de décharge cognitive (cognitive offloading), la tendance à s’en remettre à l’IA plutôt qu’à apprendre par soi-même via la documentation ou des tutoriels se renforce
- Par exemple, de la même façon que le GPS a affaibli le sens de l’orientation, les fonctions d’autocomplétion par IA et de génération de code peuvent réduire la capacité de réflexion
- Le fait que l’IA prenne en charge le code boilerplate permet de se lancer dans des projets de grande ampleur, mais il est crucial de définir la frontière entre automatisation et atrophie des compétences
La pensée critique est-elle en train de devenir la victime collatérale ?
- Selon une étude de 2025 menée par Microsoft et l’équipe de recherche de Carnegie Mellon, plus la dépendance à l’IA est forte, plus la pensée critique diminue
- Une confiance excessive dans l’IA pousse les personnes à passer en pilote automatique plutôt qu’à réfléchir par elles-mêmes
- Plus la tâche est facile, plus la vigilance baisse, ce qui entraîne une réduction à long terme de la capacité à résoudre les problèmes de manière autonome
- Les personnes qui travaillent avec l’aide de l’IA ont tendance à proposer des solutions moins diverses pour un même problème, ce qui mène à une uniformisation de la réflexion
- Les chercheurs définissent cela comme un affaiblissement de la pensée critique
- Les obstacles qui entravent la pensée critique
- Obstacle cognitif : plus une tâche est répétitive, plus on a tendance à trop s’appuyer sur l’IA
- Obstacle motivationnel : la pression du temps ou les limites du périmètre de travail poussent à éviter la réflexion approfondie
- Obstacle de capacité : il devient difficile de vérifier ou d’améliorer soi-même les réponses de l’IA
- Un ingénieur a confié que, malgré 12 ans d’expérience, l’aide immédiate de l’IA lui donnait l’impression d’être un moins bon développeur
- Arrêt de la lecture de la documentation : comme les LLM fournissent des explications immédiates, il ne ressent plus le besoin de lire la documentation officielle
- Baisse des compétences de débogage : au lieu d’analyser directement les stack traces ou les messages d’erreur, il les copie-colle dans l’IA pour obtenir une solution
- Perte de compréhension en profondeur : il applique de façon répétée les suggestions de l’IA sans chercher à vraiment comprendre le problème
- Évolution de la réaction émotionnelle : autrefois, résoudre un bug procurait de la satisfaction ; désormais, si l’IA ne donne pas de réponse en 5 minutes, cela se transforme en frustration
- En confiant sa réflexion à un LLM, le développeur échange sa maîtrise de long terme contre une commodité à court terme
« Nous ne sommes pas devenus des développeurs 10x grâce à l’IA ; nous sommes devenus 10 fois plus dépendants de l’IA »
« Chaque fois que nous laissons l’IA résoudre un problème que nous pourrions résoudre nous-mêmes, nous échangeons notre compréhension de long terme contre de la productivité à court terme »
Les signes subtils de l’atrophie des compétences
- La dépendance à l’IA n’est pas une simple hypothèse : elle peut réellement conduire à un affaiblissement des compétences de développement
- Certains signes nets permettent d’évaluer si ses compétences sont en train de s’atrophier
-
L’abandon du débogage
- Lorsqu’une erreur survient, tendance à s’en remettre immédiatement à l’IA au lieu d’utiliser un débogueur ou de lire soi-même la stack trace
- Autrefois, on progressait en analysant et en résolvant soi-même les bugs ; désormais, on transfère souvent ce processus à l’IA
- Si l’IA ne sait pas résoudre le problème, ou n’est pas disponible, on risque de se retrouver incapable d’effectuer même un diagnostic de base
-
Coder en copier-coller sans comprendre
- Ce n’est pas un problème si l’IA écrit du code boilerplate, mais cela en devient un si l’on copie ce code sans comprendre pourquoi il fonctionne ainsi
- En particulier, de jeunes développeurs parviennent à produire rapidement du code grâce à l’IA, mais sont souvent incapables d’expliquer le raisonnement derrière leurs choix ou leur gestion des cas particuliers
- Avec la disparition du processus d’exploration de différentes alternatives, l’entraînement intellectuel de base s’appauvrit
-
Affaiblissement de la pensée architecture et de la pensée système
- Concevoir des systèmes complexes ne se résout pas avec un simple prompt
- À force d’utiliser l’IA pour régler de petits problèmes, on peut développer une crainte ou une tendance à éviter les travaux de conception de haut niveau
- L’IA peut suggérer des composants ou des patterns spécifiques, mais comprendre le contexte global — performance, sécurité, maintenabilité — reste de la responsabilité du développeur
- Si l’on n’exerce pas sa capacité de raisonnement au niveau système, elle s’affaiblit progressivement
-
Diminution de la mémoire et de la capacité de rappel
- Même les appels d’API fréquents ou la syntaxe d’un langage peuvent devenir flous en mémoire
- À force de s’habituer à l’autocomplétion par IA, la capacité à écrire soi-même du code diminue
- C’est comparable à un élève qui dépend trop de sa calculatrice et perd ses capacités de calcul élémentaires
- Avec le temps, il est normal que certaines compétences disparaissent naturellement
- Par exemple, savoir gérer directement la mémoire en assembleur ou poser une division longue à la main n’est plus indispensable
- Mais il est important de distinguer les compétences qu’il faut préserver de celles qu’on peut laisser partir
- La capacité à déboguer en situation d’urgence doit toujours être considérée comme essentielle
Le compromis entre vitesse et connaissance :
L’IA fournit des réponses rapides (grande vitesse, faible apprentissage),
tandis que les méthodes traditionnelles (Stack Overflow, documentation officielle) sont plus lentes mais construisent une compréhension profonde - À force de rechercher des réponses immédiates, on risque de perdre le sens du contexte et la profondeur nécessaires pour devenir un véritable expert
Les risques à long terme de la surdépendance à l’IA
- Si une dépendance excessive aux outils d’IA n’est pas maîtrisée, on peut se retrouver face à une crise de pensée critique dans sa carrière
- Si l’IA remplace la majeure partie du processus de réflexion, on perd la capacité à réagir par soi-même lorsque l’outil échoue ou ne peut pas résoudre un problème
« Plus on utilise l’IA, moins on utilise son cerveau. Alors, quand vous tombez sur un problème que l’IA ne peut pas résoudre, aurez-vous encore les compétences pour le résoudre vous-même ? »
- Dans la pratique, il y a déjà eu des cas où une panne d’assistant de code IA a complètement paralysé le workflow de développeurs
-
La prophétie autoréalisatrice (Self-Fulfilling Prophecy)
- L’équipe de recherche de Microsoft avertit que, tout en craignant une perte d’emploi due à l’IA, le fait de l’utiliser « sans esprit critique (uncritically) » peut vous faire perdre votre propre compétitivité
- Les développeurs débutants, en particulier, risquent de sauter les étapes difficiles pour se concentrer uniquement sur la productivité immédiate, puis de se retrouver très tôt dans une stagnation de leur progression faute d’apprentissage approfondi
- Au final, on pourrait voir émerger un groupe de presse-boutons (button-pushers) n’ayant jamais connu la joie de résoudre un problème par eux-mêmes ni une compréhension profonde
- Ils sauront peut-être très bien poser des questions à l’IA, sans pour autant comprendre réellement la bonne réponse
- Si l’IA se trompe légèrement, ils risquent de ne pas repérer l’erreur, et des bugs ou vulnérabilités de sécurité peuvent se glisser dans le code
-
Culture d’équipe et dynamiques organisationnelles
- Si tous les développeurs se mettent à n’utiliser que des assistants IA, le mentorat et l’apprentissage informel par osmose (osmosis learning) peuvent s’affaiblir
- Si les développeurs juniors s’appuient sur l’IA plutôt que sur leurs collègues, il devient plus difficile pour les seniors de transmettre leur savoir
- Si les juniors sont de plus en plus fragiles sur les fondamentaux, les seniors passeront leur temps à corriger les erreurs produites par l’IA
- L’équipe risque alors de se réduire à un ensemble d’individus dépendants de l’IA, avec la disparition de la culture de revue critique et de maintien collectif de la qualité
- On pourrait même inclure concrètement une « panne de service IA » dans le bus factor
- « Combien de personnes doivent se faire renverser par un bus pour que le projet s’effondre ? »
- Il ne s’agit pas de revenir à des méthodes analogiques, mais d’un avertissement sur la nécessité d’utiliser l’IA avec prudence
- En exploitant l’IA, il faut veiller à ne pas externaliser non seulement le travail lui-même, mais aussi la pensée elle-même
- L’objectif est de tirer au maximum parti de l’IA tout en préservant solidement ses propres compétences et sa propre capacité de réflexion
Utiliser l’IA comme partenaire, pas comme béquille
- Pour profiter des gains de productivité des assistants de code IA tout en préservant ses capacités de réflexion et ses compétences, il faut adopter des habitudes d’usage conscientes
- Il faut traiter l’IA non comme un répondeur omniscient, mais comme un junior en pair programming ou un partenaire de rubber duck debugging
- Voici quelques stratégies concrètes à envisager
-
Mettre en pratique une « hygiène IA » — toujours vérifier et comprendre
- Même si le résultat produit par l’IA paraît plausible, il faut prendre l’habitude de ne jamais lui faire confiance sans vérifier
- Il faut effectuer des tests intentionnels sur les fonctions ou le code générés par l’IA et rechercher les edge cases
- Se poser soi-même les questions : « Pourquoi cette solution fonctionne-t-elle ? » et « Quelles sont ses limites ? »
- Utiliser l’IA comme support d’apprentissage en lui demandant d’expliquer le code ligne par ligne ou de proposer des approches alternatives
- Interroger les réponses de l’IA permet de transformer une réponse passive en leçon active
-
Travailler les fondamentaux — parfois, il faut accepter l’effort
- Réserver chaque semaine un certain temps à du « code sans IA » pour résoudre des problèmes entièrement à la main
- Des développeurs expérimentés instaurent un « No-AI Day » pour écrire eux-mêmes le code, analyser les erreurs et chercher dans la documentation
- Au début, c’est plus lent et frustrant, mais avec le temps on retrouve de la confiance et une compréhension profonde
- Coder régulièrement sans IA empêche les fondamentaux de se dégrader sous l’effet de l’entropie
- C’est une forme de cross-training pour le cerveau du développeur
-
Essayer d’abord soi-même avant de demander à l’IA
- Face à un problème, ne pas interroger l’IA immédiatement, mais réfléchir d’abord à une approche
- Établir au minimum un pseudocode ou une idée simple avant d’utiliser l’IA
- En cas de bug, consacrer au moins 15 à 30 minutes à déboguer par soi-même
- Cela permet de renforcer la capacité de résolution de problèmes et d’apprendre activement en comparant sa propre approche à la réponse de l’IA
-
Utiliser l’IA pour augmenter la revue de code, pas pour la remplacer
- Même le code généré par l’IA doit être revue avec la même rigueur que s’il avait été écrit par un collègue humain
- Si possible, compléter le code IA par une revue de code humaine afin de préserver la qualité à l’échelle de l’équipe
- Cela permet de garder la connaissance d’équipe dans la boucle et de détecter les problèmes qu’un développeur seul pourrait manquer en faisant confiance à l’IA
- Cela encourage l’état d’esprit selon lequel « l’IA peut produire un brouillon, mais c’est nous qui possédons le code »
- Quelle que soit la personne ou l’outil qui l’a écrit, l’équipe reste responsable de comprendre et de maintenir tout le code du dépôt
-
Apprentissage actif — questions de suivi et répétition
- Même si la solution fournie par l’IA fonctionne très bien, prendre le temps de consolider l’apprentissage sur-le-champ
- Si l’IA a écrit une expression régulière complexe ou un algorithme, expliquer soi-même sa structure ou demander à l’IA pourquoi cette méthode a été choisie
- Utiliser l’IA de manière interactive, non comme un simple fournisseur de réponses, mais comme un tuteur à la patience infinie
- Par exemple, demander à propos d’un code généré par ChatGPT : « Pourquoi cette méthode ne conviendrait-elle pas ? »
- Ainsi, l’IA devient non plus un simple distributeur de code, mais un mentor
-
Tenir un journal d’apprentissage et une liste des « assistances IA »
- Noter les sujets sur lesquels on interroge l’IA de manière répétée afin d’identifier ses lacunes de connaissance
- Par exemple, si l’on demande sans cesse comment aligner des
diven CSS ou optimiser une requête SQL, il faut étudier ce sujet de manière ciblée - Créer des flashcards ou de petits exercices pour renforcer l’apprentissage et le transférer dans la mémoire de long terme
- Lorsqu’un problème similaire se représentera, essayer de le résoudre sans l’IA pour vérifier si l’on se souvient de la méthode
- Garder l’IA comme filet de sécurité de dernier recours, et non comme première solution
-
Faire du pair programming avec l’IA
- Au lieu de traiter l’IA comme une simple API de réponse aux questions, dialoguer avec elle comme avec un partenaire de pair programming
- Par exemple, j’écris une ébauche de fonction et je demande à l’IA des pistes d’amélioration ; ou bien l’IA propose un brouillon que je modifie moi-même
- Exemple de dialogue : « Cette fonction marche, mais y a-t-il une manière de la refactoriser plus clairement ? »
- Cela permet de rester au volant. On ne consomme pas simplement des réponses : on orchestre et on dirige la contribution de l’IA
- Il faut traiter l’IA comme un développeur junior qui a besoin de supervision, tout en gardant clairement à l’esprit que la responsabilité finale appartient au développeur humain
- Avec de telles habitudes, l’usage de l’IA devient un gain net sans que l’on perde ses propres capacités
- En pratique, utiliser l’IA pour expliquer du code peu familier ou la mettre à l’épreuve sur des cas complexes est aussi extrêmement bénéfique pour améliorer ses compétences personnelles
- Par exemple, faire expliquer du code peu familier par l’IA peut approfondir ses connaissances, et la pousser dans ses retranchements avec des cas difficiles peut renforcer son raisonnement de test
- L’essentiel est de rester un utilisateur actif plutôt qu’un consommateur passif
Conclusion : rester affûté
- L’industrie du logiciel accélère vers une ère de génération de code pilotée par l’IA, et ce mouvement est désormais irréversible
- Adopter ces outils est non seulement inévitable, mais globalement bénéfique
- Mais à mesure que l’on intègre l’IA à son workflow, chacun doit choisir avec soin ce qu’il délègue à la machine et ce qu’il doit conserver lui-même
- Si vous aimez coder, il faut préserver non seulement la capacité à livrer rapidement des fonctionnalités, mais aussi l’artisanat et le plaisir de résoudre des problèmes
- Il faut utiliser l’IA comme un amplificateur de capacités (amplifier), pas comme un remplaçant (replacement)
- Laisser l’IA prendre en charge les tâches répétitives et investir le temps ainsi libéré dans des tâches créatives et complexes
- Mais il faut veiller à ce que les compétences fondamentales ne se dégradent pas, et conserver la curiosité d’explorer en permanence le « comment » et le « pourquoi »
- Il faut continuer à affûter son instinct de débogage et sa pensée système, sans se contenter d’explorer uniquement les raccourcis proposés par l’IA
- « En bref, faites de l’IA votre partenaire, pas votre béquille »
- Le développeur qui réussira sera celui qui saura combiner harmonieusement intuition et expérience humaines avec les superpouvoirs de l’IA
- capable de naviguer dans une codebase avec ou sans autopilot
- Grâce à une pratique et des défis auto-dirigés, il doit pouvoir résoudre lui-même les problèmes même quand les outils sophistiqués échouent ou face à des situations nouvelles
- « Ne vous inquiétez pas de savoir si l’IA va vous remplacer ; inquiétez-vous plutôt de ne pas développer les compétences qui vous rendent irremplaçable »
- Si vous gardez toujours à l’esprit le principe selon lequel il faut comprendre les réponses fournies par l’IA avec l’esprit d’un ingénieur, vous pourrez surfer sur la vague de l’IA sans vous laisser emporter
-
Bonus
- La prochaine fois que vous serez tenté de laisser l’IA coder une fonctionnalité entière, prenez cela comme un signal pour en écrire vous-même au moins une partie
- Vous vous souviendrez peut-être avec surprise de bien plus de choses que vous ne le pensiez, et retrouverez le plaisir de coder à la main
- Faites de l’IA un outil d’amélioration de la productivité, mais n’abandonnez jamais l’habitude d’aiguiser activement vos compétences
Le meilleur développeur de demain sera probablement celui qui, malgré l’IA d’aujourd’hui, n’aura pas oublié comment penser par lui-même
6 commentaires
https://freederia.com/researcharchive/
C’est le site du scientifique IA.
Ce type d’orientation encouragera encore davantage la diversité des approches.
C’est une technologie qui offre un niveau de productivité difficile à refuser. Mieux encore, lorsqu’elle vous propose une approche ou l’utilisation d’une API de bibliothèque à laquelle vous n’auriez jamais pensé, on a parfois l’impression d’avoir des étincelles dans le cerveau. Il est naturel d’en venir à dépendre 10 fois plus de l’IA, mais avant de tout lui déléguer comme à une solution tout-en-un, il faut bien garder à l’esprit qu’elle reste un copilote. Que ce soit dans la vie quotidienne ou dans le code, c’est comme avoir en permanence à ses côtés un doctorant vraiment serviable.
Un jeune développeur junior avec qui je travaillais autrefois... J’ai vu qu’il avait fait un simple copier-coller tel quel d’un code trouvé sur Internet, sans même corriger l’indentation... et j’ai poussé un soupir...
« Ne faites pas de copier-coller tel quel du code trouvé via une recherche Google sur des sites comme Stack Overflow ; utilisez-le seulement si vous le comprenez vous-même. »
C’est ce que j’avais dit à l’époque.
Pourquoi est-ce exactement pareil ? hahaha
Parce que pour ceux qui ne s’y connaissent pas, c’est la solution la plus simple.
Foundation n’était donc pas un roman de science-fiction, mais un livre de prophéties !
Avis Hacker News
Propose un autre point de vue sur l’analogie courante selon laquelle le GPS affaiblit la capacité à lire une carte. Son père, qui a appris à conduire avant le GPS, a du mal à gérer simultanément la conduite et la navigation. À l’inverse, ceux qui ont appris à conduire avec le GPS ont développé la capacité de gérer la conduite tout en suivant les instructions de navigation. Cette compétence est devenue essentielle pour les conducteurs modernes
Il est désormais possible d’utiliser un LLM pour photographier des exercices de manuel et aider à leur compréhension. Les LLM sont des outils qui amplifient les intentions des gens, ce qui avantage ceux qui ont une réelle intention d’apprendre. En revanche, ils peuvent avoir un effet négatif sur ceux qui cherchent seulement à sauver les apparences
Travailler avec des LLM améliore la capacité à comprendre entièrement un problème et à expliquer clairement son intention. Les LLM accélèrent le codage, mais ils peuvent aussi produire plus vite du mauvais code. Il devient donc important de savoir décrire clairement les exigences d’un système et de raisonner à un niveau d’abstraction élevé
Certains estiment que la perte de compétences liée à l’IA est une conséquence intentionnelle de la réduction du coût du travail. Cela souligne la réalité selon laquelle l’objectif n’est pas d’augmenter la productivité via l’IA, mais de réduire les coûts
Les LLM sont utiles pour s’exercer à des compétences comme celles de LeetCode. On peut apprendre en utilisant Gemini 2.5 Pro d’AI Studio pour résoudre des problèmes LeetCode et se faire suggérer des pistes d’amélioration
Certains utilisent Claude pour explorer des idées et repérer des failles dans leur raisonnement. Claude joue au pire le rôle d’un conseiller fiable, et au mieux celui d’un détective
L’exemple de l’incapacité à utiliser une carte papier montre l’impact des changements technologiques sur les capacités individuelles. L’idée qu’il puisse devenir difficile de trouver une carte papier si le GPS cesse de fonctionner est source d’inquiétude
Au-delà de la perte de compétences, il existe aussi un risque d’homogénéisation du savoir humain. Le « bon sens » renforcé par les LLM pourrait remplacer des problèmes propres à certaines régions par des solutions génériques
Coder ou rédiger de la documentation hors ligne, sans dépendre d’outils externes, est un bon moyen de vérifier ses propres capacités de réflexion. Ne plus vouloir répéter les idées des autres sans penser de manière créative a conduit quelqu’un à décider de prendre sa retraite
Il est possible que le QI moyen baisse de plus de 10 points au cours des 10 prochaines années, mais tout le monde affirmera malgré tout que la productivité a augmenté grâce aux billets de blog générés par l’IA