Get Shit Done - système de méta-prompts et de développement piloté par les spécifications
(github.com/gsd-build)- Système léger qui automatise le développement piloté par les spécifications (SDD) dans Claude Code et autres, afin d’aider à mener un projet à bien sans workflows complexes
- Empêche la dégradation de la qualité du code IA (context rot) grâce à l’ingénierie de contexte, à la structuration des prompts basée sur XML et à l’orchestration multi-agents
- Automatise tout le cycle de développement, de la définition de l’idée → planification → exécution → validation, avec des commandes comme
/gsd:new-project,/gsd:plan-phase,/gsd:execute-phase - Garantit traçabilité et efficacité grâce à des commits Git atomiques pour chaque unité de travail et à l’exécution parallèle (wave execution)
- Outil utilisé par des ingénieurs de Amazon, Google, Shopify, Webflow, qui améliore la fiabilité et la productivité du développement assisté par l’IA
Aperçu
- Get Shit Done (GSD) est un système léger de méta-prompts et de gestion du contexte qui fonctionne dans divers environnements de développement IA comme Claude Code, OpenCode, Gemini CLI, Codex, Copilot, Antigravity
- Il résout le problème de context rot, où la qualité du contexte se dégrade pendant que l’IA écrit du code, et produit des résultats cohérents sur la base des spécifications
- Fonctionne sur Mac, Windows et Linux, et peut être installé avec la commande
npx get-shit-done-cc@latest
Contexte de création (Why I Built This)
- Créé pour résoudre le problème des outils destinés aux grandes organisations qui imposent des procédures inutilement complexes
- GSD est conçu selon le principe suivant : la complexité à l’intérieur du système, un workflow simple pour l’utilisateur
- En interne, il gère l’ingénierie de contexte, le formatage XML des prompts, l’orchestration de sous-agents et la gestion d’état
- L’utilisateur peut mener un projet à terme avec de simples commandes
Fonctions clés et workflow (How It Works)
-
L’ensemble du processus de développement se compose de 6 étapes
- Initialisation du projet : interroge sur l’idée, les contraintes, la stack technique, puis génère
PROJECT.md,ROADMAP.md, etc. - Phase de discussion : définit les détails d’implémentation et crée
CONTEXT.md - Phase de planification : recherche en parallèle et élaboration du plan, avec création d’unités de travail structurées en XML
- Phase d’exécution : exécution parallèle par vagues (wave) selon les dépendances, avec commit et validation pour chaque tâche
- Phase de validation : tests automatiques et confirmation utilisateur, avec génération automatique d’un plan de correction en cas d’échec
- Itération et achèvement des jalons : répétition des étapes puis marquage de release
- Initialisation du projet : interroge sur l’idée, les contraintes, la stack technique, puis génère
-
Le Quick Mode traite rapidement une tâche unique, avec un contrôle fin via les flags
--discuss,--research,--full
Technologies clés (Why It Works)
- Ingénierie de contexte : gestion du contexte global du projet au niveau des fichiers (
PROJECT.md,REQUIREMENTS.md,STATE.md, etc.) - Formatage XML des prompts : définit clairement chaque tâche et inclut les procédures de validation
- Orchestration multi-agents : exploitation parallèle d’agents spécialisés pour la recherche, la planification, l’exécution et la validation
- Commits Git atomiques : un commit par unité de travail pour garantir la traçabilité et faciliter la restauration
- Conception modulaire : ajout, insertion et modification d’étapes libres pour une gestion de projet flexible
Système de commandes (Commands)
- Workflow principal :
/gsd:new-project,/gsd:plan-phase,/gsd:execute-phase,/gsd:verify-work - Aide à la conception UI :
/gsd:ui-phase,/gsd:ui-review - Analyse de la base de code :
/gsd:map-codebase - Gestion de projet :
/gsd:add-phase,/gsd:insert-phase,/gsd:complete-milestone - Utilitaires :
/gsd:quick,/gsd:health,/gsd:stats,/gsd:debug,/gsd:note, etc.
Paramétrage et configuration (Configuration)
- Le fichier de configuration
.planning/config.jsonpermet de contrôler le mode, le niveau de découpage des phases, les profils de modèle, les agents de workflow, la parallélisation et la stratégie de branching Git - Les profils de modèle disponibles sont
quality,balanced,budget,inherit - Des bascules comme
workflow.research,workflow.plan_check,workflow.verifierpermettent d’ajuster qualité et vitesse
Sécurité et résolution des problèmes (Security & Troubleshooting)
- Les fichiers sensibles comme
.env,secrets/,*.pem,*.keydoivent être ajoutés à la deny list de Claude Code afin d’en bloquer l’accès - En cas d’erreur de reconnaissance des commandes après installation, il est recommandé de redémarrer le runtime ou de réinstaller
- Dans un environnement Docker, les problèmes de chemin peuvent être résolus avec le paramètre
CLAUDE_CONFIG_DIR - L’option
--uninstallpermet de supprimer tous les composants
Communauté et licence
- Prise en charge de ports communautaires pour OpenCode, Gemini CLI et Codex
- Publié sous licence MIT
- « Claude Code is powerful. GSD makes it reliable. » — un outil qui renforce la fiabilité de Claude Code
1 commentaires
Avis sur Hacker News
J’utilisais auparavant Plan mode avec Superpowers, mais j’ai fini par trouver que Plan mode seul suffisait
Ce type de framework est utile pour les tâches fire-and-forget qui demandent de la recherche, mais j’avais l’impression que ça consommait plus de 10 fois plus de tokens
La différence de qualité du résultat n’était pas énorme non plus, et j’atteignais souvent la limite du Max plan
Une fois le plan d’implémentation terminé, ça enchaîne automatiquement sans me demander mon avis, mais il faut l’exécuter dans un sandbox Docker
C’est à cause de réglages de permissions risqués, mais de toute façon je trouve ça plus sûr ainsi
Pour l’instant ça marche bien et c’est productif, mais j’ai l’impression que ce n’est qu’une étape intermédiaire du parcours
Je l’ai réessayé après l’annonce de la dernière version, et comme il y a plusieurs couches de cross-check et self-review, les résultats étaient plus stables
On peut le faire à la main, mais Superpowers automatise le processus, donc c’était bien plus pratique
GSD produisait un code tenant compte du contexte global du projet, tandis que Plan Mode implémentait juste le strict nécessaire, au niveau d’un MVP
Les avantages et inconvénients sont très marqués selon le workflow et la taille du travail
Les sorties sont devenues plus verbeuses, alors que les détails sont au contraire plus flous
Il y a plus d’étapes du type “design” ou “figure out”, puis ça passe directement à l’implémentation sans question de suivi
Il manipulait parfois les tests ou produisait des résultats à côté de la plaque
Au final, j’ai terminé le MVP en le guidant manuellement, et c’était bien plus efficace
Il y a trop de méta-frameworks de ce genre en ce moment, mais j’en ai rarement vu prouver une réelle productivité
La plupart ne font que gaspiller des tokens et polluer la context window
Au final, le mieux restait de faire simple : fournir uniquement les infos nécessaires et boucler sur Plan → Code → Verify
Quand je vois Codex rattraper les erreurs produites par Claude seul, je me dis qu’on ne peut pas tout confier à un agent unique
Je conçois le flux des écrans de l’application sous forme d’images, puis je l’exporte en markdown structuré, ce qui permet au LLM de comprendre le contexte écran par écran
Par rapport à une spécification textuelle, ça permet de détecter plus tôt les états manquants ou les flux d’erreur
Ils sont utiles pour leur auteur, mais donnent souvent l’impression d’être inutiles aux autres
À mon avis, les systèmes Spec-Driven sont voués à l’échec
Des spécifications écrites en anglais ne parviennent pas à relier le code réel à son comportement
Ce problème est déjà résolu par les tests automatisés
Il faut encoder le comportement du système sous forme de tests exécutables
Même quand un LLM génère l’implémentation, il faut d’abord écrire les tests et vérifier la cohérence via le mutation testing
J’ai résumé ça dans cet article et cet exemple GitHub
Au final, cela doit être exprimé sous forme de code
Voir le lien
Les spécifications couvrent un champ bien plus large que les tests
Il arrive aussi souvent que les LLM ignorent les tests ou les modifient arbitrairement
J’utilise un système d’IA personnel et j’hésite à le rendre public
Il est tellement personnalisé pour ma façon de travailler que maintenir une version publique séparée me semble lourd
Plutôt que de laisser d’autres personnes l’utiliser directement, j’aimerais qu’elles s’en inspirent pour partager seulement les patterns
À l’ère de l’IA, le simple fait de partager de l’inspiration et des idées a déjà beaucoup de valeur
J’ai essayé GSD lors d’un hackathon en équipe, mais il mettait beaucoup trop de temps à comprendre la codebase et la consommation de tokens était énorme
Il y avait aussi beaucoup d’erreurs lors de la génération des transcriptions d’agents
C’était un outil excessif pour développer quelques petites fonctionnalités
La leçon à retenir était simple : rédiger de bonnes specs + itérer avec Plan mode était bien plus efficace
Les contraintes de design de Beads me frustraient, donc j’ai créé moi-même un outil similaire
Ma version est basée sur SQLite et j’y ai ajouté une synchronisation bidirectionnelle avec GitHub
L’idée centrale est de discuter d’abord avec le modèle pour produire un fichier de spécifications clair
Une fois ce fichier en place, le modèle n’oublie pas, et plus il y a de détails, meilleure est la qualité de sortie
J’ai utilisé Claude pour prototyper une idée que je mûrissais depuis longtemps, et le résultat a été meilleur que prévu
Les modèles restent des systèmes probabilistes, donc une mémoire parfaite est impossible
Présenter ça comme si on avait découvert une nouvelle recette miracle, c’est exagéré
J’ai essayé Superpowers, et comme ce GSD semble similaire, j’étais curieux de la comparaison
Le Quick mode lui fait perdre son objectif initial, et Superpowers me semblait un bon compromis
Mettre ce genre de framework dans le dépôt, puis demander à l’IA d’améliorer le framework lui-même, peut aussi être utile pour des tâches créatives
Mais ce type de structure ne me semble être qu’un hack temporaire, qui disparaîtra naturellement quand les modèles seront suffisamment entraînés
GSD a résolu ce problème, mais comme il y a trop d’étapes, c’est lent
Les spécifications produites par Superpowers étaient détaillées, mais il manquait certaines fonctions (par ex. RSS, analytics), et une spécification collaborative proposant une migration en parallèle était plus flexible
Au final, j’ai demandé à Claude de comparer et fusionner les deux specs pour produire une version finale
Voir la comparaison détaillée
On peut très bien obtenir la même chose avec les skills de Claude
J’ai utilisé GSD intensivement pendant 3 mois, et c’est beaucoup plus abouti que speckit, que j’utilisais auparavant
Même des tâches complexes sont automatisées à 95 %
Les 5 % restants sont finalisés avec des tests manuels
J’ai même lancé un produit SaaS (whiteboar.it) avec ça
Le modèle lui-même a progressé entre-temps, mais le gain de productivité était bien réel
Comme je trouvais l’abonnement FreshBooks trop cher, j’ai développé moi-même une application macOS en Swift avec GSD
L’extraction automatique des reçus et leur catégorisation ont été implémentées via l’API Anthropic
J’étais parti d’une web app, mais en ajoutant des fonctions comme l’intégration de l’appareil photo, c’est devenu une vraie application desktop
Grâce à GSD, j’ai pu terminer mon application de comptabilité personnelle
Au final, le véritable outil qu’il nous faut, c’est un outil qui économise les tokens
Mais ça n’existe pas encore
Même Claude Code consomme trop de tokens sur les gros projets
Le nom de « cet ensemble de fichiers Markdown » est vraiment trop gênant