142 points par davespark 2026-02-13 | Aucun commentaire pour le moment. | Partager sur WhatsApp

Andrej Karpathy a mis en lumière les problèmes du code généré par les LLM, et un simple fichier Markdown de 65 lignes (CLAUDE.md) censé y remédier connaît un succès explosif sur GitHub, au point de provoquer une véritable sensation chez les utilisateurs de Claude Code : « il suffit d’ajouter ce fichier pour que l’IA devienne nettement plus intelligente ».

Popularité fulgurante du fichier

  • Le fichier CLAUDE.md du dépôt GitHub forrestchang/andrej-karpathy-skills
  • Plus de 400 étoiles ajoutées en une seule journée → près de 4 000 au total
  • Aussi porté sous forme d’extensions VS Code / Cursor, donc facile à appliquer

Contenu du fichier : 4 principes clés (inspirés des critiques de Karpathy sur le codage avec les LLM)

  • Think Before Coding (réfléchir avant de coder) : expliciter les hypothèses, poser des questions en cas d’incertitude, s’arrêter en cas de confusion
  • Simplicity First (la simplicité d’abord) : ne pas ajouter de fonctionnalités, d’abstractions ni de gestion d’erreurs non demandées
  • Surgical Changes (des changements chirurgicaux) : ne modifier que la partie demandée sans toucher au reste
  • Goal-Driven Execution (exécution orientée objectif) : transformer une demande vague comme « ajouter une fonctionnalité » en objectif concret comme « faire passer les tests »

→ En injectant ces principes dans le prompt, de nombreux retours d’expérience indiquent que Claude fait moins preuve d’une créativité excessive, formule moins d’hypothèses hasardeuses, refactorise moins inutilement et produit un code plus stable et plus prévisible.

L’initiative de Michiel Beijen (auteur du billet d’origine)

  • Il n’utilise même pas Claude Code, mais a estimé que ce fichier valait le détour
  • Il l’a lui-même transformé en extensions Cursor + VS Code et les a publiées
  • Après l’avoir testé, son sentiment est plutôt : « ça a peut-être un effet… ou peut-être pas… » (difficile d’en être sûr à cause du caractère non déterministe)
  • Il reconnaît malgré tout que beaucoup de gens disent percevoir une vraie différence

Le point qui a le plus frappé les gens

  • De très grandes entreprises du LLM ont entraîné ces modèles pendant des années avec des investissements colossaux
  • Et pourtant, un simple texte de 65 lignes semblerait améliorer sensiblement la qualité
  • Certains y voient un cas extrême où « le prompt peut surpasser le modèle lui-même »
  • Ces consignes simples semblent corriger assez efficacement plusieurs défauts chroniques des LLM pointés par Karpathy (trop d’hypothèses, ignorance de la confusion, absence d’exposition des compromis, etc.)

Conclusion

  • Impossible d’affirmer à 100 % que l’effet est réel, mais beaucoup de développeurs disent ressentir une différence nette
  • Un exemple emblématique de la puissance du prompt hacking / context engineering à l’ère des LLM

https://aisparkup.com/posts/9225

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.