DeepClaude - utiliser la boucle d’agent Claude Code 17 fois moins cher avec DeepSeek V4 Pro
(github.com/aattaran)- DeepClaude remplace uniquement la cible des appels API de Claude Code CLI par DeepSeek V4 Pro, OpenRouter, Fireworks AI ou un backend compatible Anthropic, tout en conservant la boucle d’outils, l’édition de fichiers, bash et le flux git de Claude Code
- Claude Code implique un abonnement mensuel de 200 $ avec des limites d’usage, tandis que DeepSeek V4 Pro met en avant un score de 96,4 % sur LiveCodeBench et un tarif de 0,87 $/M en tokens de sortie
- La lecture, l’écriture et l’édition de fichiers, l’exécution de Bash/PowerShell, la recherche Glob/Grep, les boucles d’outils autonomes à plusieurs étapes, la création de sous-agents, les opérations git,
/initet le thinking mode activé par défaut fonctionnent - Le backend par défaut est DeepSeek ; OpenRouter est proposé pour ses serveurs US et sa faible latence, Fireworks AI pour son inférence rapide, et Anthropic comme option pour utiliser Claude Opus sur les problèmes difficiles
- Les tarifs par backend sont annoncés comme suit : DeepSeek et OpenRouter à 0,44 $/M en entrée et 0,87 $/M en sortie, Fireworks AI à 1,74 $/M en entrée et 3,48 $/M en sortie, Anthropic à 3,00 $/M en entrée et 15,00 $/M en sortie
- DeepClaude configure au niveau de la session
ANTHROPIC_BASE_URL,ANTHROPIC_AUTH_TOKEN,ANTHROPIC_DEFAULT_OPUS_MODEL,ANTHROPIC_DEFAULT_SONNET_MODEL,ANTHROPIC_DEFAULT_HAIKU_MODEL,CLAUDE_CODE_SUBAGENT_MODEL, puis restaure la configuration d’origine à la fermeture - Le cache de contexte automatique de DeepSeek met en cache le prompt système et le contexte des fichiers à 0,004 $/M après la première requête, ce qui réduit le coût des boucles d’agent sur les tours répétés
- La comparaison d’usage avance qu’en face d’Anthropic Max à 200 $/mois, DeepClaude revient à environ 20 $/mois pour un usage léger, 50 $/mois pour un usage intensif et 80 $/mois avec les boucles automatiques
- Les limites sont également claires : l’endpoint Anthropic de DeepSeek ne prend pas en charge les entrées image, Claude Code envoie les outils de manière séquentielle par défaut, les outils de serveur MCP ne sont pas pris en charge via la couche de compatibilité, et le
cache_controld’Anthropic est ignoré - Le projet prend en charge le live switching pour changer de backend pendant une session sans redémarrage, et le proxy
localhost:3200envoie/v1/messagesvers le backend actif tout en fournissant les endpoints de contrôle/_proxy/mode,/_proxy/status,/_proxy/cost - Dans Claude Code, il est possible de changer de backend avec des commandes slash comme
/deepseek,/anthropic,/openrouter, ou avecdeepclaude --switch ds, et le proxy calcule aussi l’usage de tokens ainsi que les économies par rapport à Anthropic - L’outil peut être lancé via un profil de terminal VS Code/Cursor, et
--remoteouvre une session Claude Code dans le navigateur ; le pont WebSocket utilise Anthropic tandis que les appels API du modèle sont envoyés à DeepSeek ou à d’autres via le proxy local - Pour le contrôle à distance, il faut
claude auth login, un abonnement claude.ai et Node.js 18+ pour le proxy ; la licence du projet est MIT
1 commentaires
Avis Hacker News
Faire tourner Claude Code avec l’API DeepSeek revient essentiellement à un wrapper shell qui définit quelques variables d’environnement
Il suffit de configurer
ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic,ANTHROPIC_AUTH_TOKEN,ANTHROPIC_MODEL, puis d’exécuterclaude $@En revanche, l’API DeepSeek ne semble pas permettre d’exclure les données de l’entraînement, et ce sera probablement mieux quand ce sera proposé chez d’autres fournisseurs. OpenRouter semble pour l’instant simplement faire proxy vers DeepSeek
Mais ces fonctions sont trop enfouies dans un README qui semble écrit par un LLM, et à voir l’historique elles ont été ajoutées plus tard sans que la structure du README soit revue
L’auteur a même commité un plan de promotion sur les réseaux sociaux qui a l’air efficace : https://github.com/aattaran/deepclaude/commit/a90a399682defc...
Il suffit de lancer quelque chose comme
aivo claude -m deepseek-v4-proJe ne vois pas très bien ce que cela apporte. DeepSeek explique déjà comment utiliser son API avec plusieurs CLI, dont Claude Code
https://api-docs.deepseek.com/quick_start/agent_integrations...
Le LLM qui a rédigé le README n’a visiblement pas mis à jour la présentation générale du projet pour mettre ces points en avant
Le plan marketing de l’auteur a aussi été commité : https://github.com/aattaran/deepclaude/commit/a90a399682defc...
Si vous cherchez une alternative à Claude Code, je recommande de regarder d’abord pi.dev ou opencode comme framework d’exécution
Côté modèles, OpenCode Go semble actuellement avoir le meilleur rapport coût/efficacité, et on peut aussi le connecter directement à OpenRouter ou DeepSeek. Personnellement, je pense qu’il vaut mieux aller chez Kimi et prendre un abonnement kimi.com
Sur mon side project personnel, mouse.dev, je combine des éléments d’OpenCode, Claude Code et Hermes pour construire une architecture d’agent cloud qui fonctionne bien aussi sur mobile
Puis j’ai découvert qu’un bot fermait automatiquement toutes les issues. Franchement, je n’ai pas de mots
Même à environ 1 dollar par million de tokens, il est étonnamment facile de consommer 200 dollars de tokens
Quel que soit le calcul, une formule de codage est plus rentable
Si des performances de niveau Sonnet suffisent, ça ressemble clairement à une amélioration
Mais Sonnet fait trop d’erreurs, donc optimiser les coûts sur un modèle de ce niveau me semble au final de valeur limitée. Cela dit, c’est bien d’avoir plus de choix
Séparer conception avec Opus et implémentation avec DeepSeek devrait permettre de réduire pas mal les coûts. Personnellement, j’éviterais Anthropic complètement, mais je comprends pourquoi certains l’utilisent
Que ce soit pour une entreprise ou un employé, je ne vois pas bien pourquoi on n’utiliserait pas le meilleur modèle disponible actuellement avec le niveau de raisonnement maximal, ou au moins le deuxième plus élevé. Ce n’est pas bon marché, mais ce n’est pas non plus hors de prix
Pour produire une bonne architecture, il faut lire beaucoup de specs, de code, etc., donc on consomme beaucoup de tokens en entrée et en sortie, et pour corriger des bugs c’est pareil si on inclut les logs ou même Datadog
Une fois la direction trouvée, les patchs sont mineurs, et sauf pour du refactoring ou du nettoyage, les économies réalisées avec un modèle moins cher restent faibles
Les tests deviennent de plus en plus complexes. Rien qu’avec opencode go, on a GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro, DeepSeek V4 Flash
Il faut maintenant faire tourner tout cela à grande échelle avec leurs bugs, et je me demande si je rate quelque chose. Je me demande à quoi servent réellement les modèles moins chers
Claude.mdsolide, une revue régulière des sorties et de bonnes pratiques de code imposées par les garde-fous CI de base, j’ai très rarement eu besoin de passer à OpusJe me demande si on n’a pas simplement demandé à une IA de faire en one-shot quelque chose qui revient en gros à définir deux variables d’environnement
Je me demande si Claude Code est vraiment le meilleur framework d’exécution pour le code. Il existe des évaluations là-dessus ?
En revanche, Claude Code est l’outil le plus subventionné, à la fois via l’abonnement Max grand public et via les remises sur les tokens côté entreprise. Il bénéficie aussi d’une forte optimisation des coûts, avec mise en cache des tokens et réduction de l’intensité de raisonnement, mais cela se paie en qualité
Après avoir essayé DeepSeek V4 dans plusieurs CLI, c’est Langcli qui m’a le mieux convenu. Pour les tâches de programmation, le taux de cache dépasse 95 %
On peut basculer de manière fluide et dynamique entre DeepSeek V4 Flash, V4 Pro et d’autres modèles grand public dans le même contexte, et c’est 100 % compatible avec Claude Code
J’ai passé la moitié de la journée à faire tourner CUDA et LLAMA sur une 5070TI
J’ai pu l’essayer avec le mode agent de Roo, je lui ai fait écrire un plan puis je me suis arrêté, mais je compte continuer quand j’aurai plus de temps
DeepSeek semble peu susceptible de disparaître soudainement puisqu’on peut l’auto-héberger tant qu’on a assez d’argent, mais les solutions locales m’enthousiasment davantage malgré tout
En général, ce dont on a besoin, c’est de travail répétitif, pas de résoudre des problèmes difficiles
Ça donne clairement l’impression d’avoir été coécrit en vibe coding, et même le prix n’est pas juste