10 points par GN⁺ 2026-03-17 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Lorsque l’on collabore longtemps avec des LLM comme Claude ou Codex, la fatigue s’accumule et la productivité chute brutalement
  • La baisse de qualité des prompts due à la fatigue dégrade la qualité des résultats, et plus on interrompt ou modifie le modèle en cours de route, plus les performances se détériorent
  • La lenteur de la boucle de feedback et l’expansion excessive du contexte rendent les expérimentations répétées difficiles et nuisent à l’efficacité du travail
  • Une approche efficace consiste à préserver le plaisir d’écrire des prompts et une conscience claire de l’objectif, tout en définissant la lenteur de la boucle elle-même comme un problème à résoudre
  • Le point clé dans l’usage des LLM est un feedback rapide et des critères de réussite clairs ; cela permet de réduire le temps de débogage et d’obtenir des résultats plus intelligents

Fatigue et lenteur des expérimentations

  • Lorsque la fatigue mentale s’accumule, la qualité des prompts baisse, et par conséquent celle des réponses du LLM aussi
    • En état de fatigue, on soumet un prompt en omettant du contexte essentiel, puis, à force de corrections et d’interruptions, les résultats empirent
    • Dans Claude Code ou Codex, ce type d’« intervention en cours de route » casse la cohérence et conduit à de moins bons résultats
  • Le ralentissement de la boucle de feedback est pointé comme un problème majeur
    • Dans les tâches longues, comme l’analyse de fichiers volumineux, chaque relance est lente, ce qui allonge le cycle d’expérimentation
    • Quand le contexte arrive presque à saturation, le modèle devient plus « émoussé » ou reflète mal les expérimentations récentes

Une collaboration plus efficace avec l’IA

  • Il faut éviter le cercle vicieux des mauvais prompts (« doom-loop psychosis »)
    • Si écrire des prompts n’est plus agréable, ou si l’on répète des entrées courtes et bâclées, il faut faire une pause
    • Attendre de l’IA qu’elle comble les lacunes d’un problème insuffisamment réfléchi est un piège dangereux
  • Des prompts portés par un objectif clair et une conviction nette sont au cœur de la réussite
    • Un prompt rédigé en visualisant précisément le résultat souhaité mène à des réponses de meilleure qualité
    • À l’inverse, lorsque le prompt est écrit dans l’incertitude ou la précipitation, le résultat est rarement satisfaisant

Faire de la lenteur de la boucle de feedback un problème à résoudre

  • Il faut faire de la vitesse de la boucle de feedback elle-même un objectif d’amélioration
    • Par exemple, face à un problème de parsing, on peut fixer explicitement l’objectif de ramener le temps de boucle à moins de 5 minutes, et demander une reproduction rapide des cas d’échec
    • C’est une approche proche du développement piloté par les tests (TDD), qui accélère les expérimentations itératives
  • Définir des critères de réussite clairs maximise l’efficacité du LLM
    • En donnant des conditions concrètes comme « reproduis le cas d’échec en moins de 5 minutes », le LLM optimise le chemin de code et élimine les éléments inutiles
    • Avec une boucle de feedback rapide, la consommation de contexte diminue et le modèle fonctionne de manière plus « intelligente »

Conclusion

  • La fatigue ressentie dans le travail avec les LLM peut souvent relever non d’un problème technique, mais d’un problème de maîtrise (« skill issue »)
  • La fatigue cognitive et l’externalisation des exigences cognitives (cognitive outsourcing) sont des pièges qui font chuter la productivité
  • Il est préférable de ne continuer que lorsque le processus d’écriture des prompts reste agréable et que l’on se sent capable d’être satisfait à plus de 95 % du résultat
  • Si l’on ressent une progression lente et une surcharge de contexte, il faut en faire un sujet à résoudre et concevoir avec le LLM une structure d’itération plus rapide

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.