Résumé
- Rapport d’expérimentation indiquant qu’après avoir refactoré la structure du code (patterns stratégie et factory, séparation des fichiers, réorganisation de
.cursorrules) avec un prompt d’une seule ligne, puis exécuté le même prompt d’ajout de fonctionnalité, l’usage des tokens par l’IA a fortement diminué (Zero-context, N=5). Les prompts et le code source utilisés pour l’expérience sont publiés, ce qui permet de la reproduire.
Données clés
-
Claude-4 Sonnet : moyenne de 390,159 → 242,265 tokens (−37,91 %)
-
GPT-5 : moyenne de 315,839 → 233,634 tokens (−26,03 %)
-
Référence : Total Tokens affiché par Cursor. Comparer les valeurs absolues entre modèles n’a pas de sens (différences de comptabilisation selon les modèles).
Configuration (résumé)
-
IDE Cursor 1.6.6, modèles GPT-5 / Claude-4 Sonnet
-
Tous les prompts en Zero-context, redémarrage complet de l’éditeur à chaque round
-
Critère de réussite : compté comme réussi si les exigences sont implémentées avec un seul prompt
Pourquoi c’est important
-
Une « bonne structure de code » ne facilite pas seulement la lecture humaine, elle a aussi un impact mesurable sur les tokens, les coûts et le temps pour l’IA
-
La publication des prompts et du dépôt garantit la reproductibilité (directement exploitable en pratique et pour des expériences de suivi)
Avis personnel
- En tant qu’utilisateur de Cursor, cette proposition présente une excellente méthodologie pour réduire les coûts.
- Comme le texte le souligne aussi, l’échantillonnage reste toutefois un peu insuffisant.
Aucun commentaire pour le moment.