rtk - Un proxy CLI qui réduit la consommation de tokens des LLM de 60 à 90 %
(github.com/rtk-ai)- Un binaire Rust unique (Windows/macOS/Linux) qui filtre et compresse la sortie des commandes CLI exécutées par les outils de codage IA avant de la transmettre au LLM, pour réduire de 60 à 90 % le nombre de tokens
- Prend en charge plus de 100 commandes comme git, grep, ls, cargo test, et applique 4 stratégies avant d’envoyer la sortie dans le contexte du LLM : filtrage intelligent, regroupement, troncature et déduplication
- Compatible avec 10 outils de codage IA, dont Claude Code, Codex, Cursor, Gemini CLI ; lors de l’installation du hook, les commandes bash sont automatiquement et de façon transparente réécrites vers la commande équivalente de rtk
- Ce hook ne s’applique qu’aux appels d’outils Bash ; les outils intégrés de Claude Code comme
Read,Grep,Glob, etc. contournent ce mécanisme, donc pour appliquer le filtrage RTK il faut utiliser des commandes shell ou des commandes rtk explicites
- Ce hook ne s’applique qu’aux appels d’outils Bash ; les outils intégrés de Claude Code comme
- Pour une session Claude Code de 30 minutes, l’économie estimée est de ~23 900 tokens (environ 80 % de réduction) contre ~118 000 tokens en standard
- Jusqu’à 90 % de réduction avec des lanceurs de tests comme
cargo test/npm test,pytest,go test
- Jusqu’à 90 % de réduction avec des lanceurs de tests comme
- Prise en main
# 1. Installation rtk init -g # Claude Code / Copilot (par défaut) rtk init -g --gemini # Gemini CLI rtk init -g --codex # Codex (OpenAI) rtk init -g --agent cursor # Cursor # 2. Redémarrer ensuite l’outil IA git status # fonctionne désormais comme rtk git status - Licence Apache-2.0
Aucun commentaire pour le moment.