1 points par GN⁺ 2 시간 전 | 1 commentaires | Partager sur WhatsApp
  • DeepClaude remplace uniquement la cible des appels API de Claude Code CLI par DeepSeek V4 Pro, OpenRouter, Fireworks AI ou un backend compatible Anthropic, tout en conservant la boucle d’outils, l’édition de fichiers, bash et le flux git de Claude Code
  • Claude Code implique un abonnement mensuel de 200 $ avec des limites d’usage, tandis que DeepSeek V4 Pro met en avant un score de 96,4 % sur LiveCodeBench et un tarif de 0,87 $/M en tokens de sortie
  • La lecture, l’écriture et l’édition de fichiers, l’exécution de Bash/PowerShell, la recherche Glob/Grep, les boucles d’outils autonomes à plusieurs étapes, la création de sous-agents, les opérations git, /init et le thinking mode activé par défaut fonctionnent
  • Le backend par défaut est DeepSeek ; OpenRouter est proposé pour ses serveurs US et sa faible latence, Fireworks AI pour son inférence rapide, et Anthropic comme option pour utiliser Claude Opus sur les problèmes difficiles
  • Les tarifs par backend sont annoncés comme suit : DeepSeek et OpenRouter à 0,44 $/M en entrée et 0,87 $/M en sortie, Fireworks AI à 1,74 $/M en entrée et 3,48 $/M en sortie, Anthropic à 3,00 $/M en entrée et 15,00 $/M en sortie
  • DeepClaude configure au niveau de la session ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL, CLAUDE_CODE_SUBAGENT_MODEL, puis restaure la configuration d’origine à la fermeture
  • Le cache de contexte automatique de DeepSeek met en cache le prompt système et le contexte des fichiers à 0,004 $/M après la première requête, ce qui réduit le coût des boucles d’agent sur les tours répétés
  • La comparaison d’usage avance qu’en face d’Anthropic Max à 200 $/mois, DeepClaude revient à environ 20 $/mois pour un usage léger, 50 $/mois pour un usage intensif et 80 $/mois avec les boucles automatiques
  • Les limites sont également claires : l’endpoint Anthropic de DeepSeek ne prend pas en charge les entrées image, Claude Code envoie les outils de manière séquentielle par défaut, les outils de serveur MCP ne sont pas pris en charge via la couche de compatibilité, et le cache_control d’Anthropic est ignoré
  • Le projet prend en charge le live switching pour changer de backend pendant une session sans redémarrage, et le proxy localhost:3200 envoie /v1/messages vers le backend actif tout en fournissant les endpoints de contrôle /_proxy/mode, /_proxy/status, /_proxy/cost
  • Dans Claude Code, il est possible de changer de backend avec des commandes slash comme /deepseek, /anthropic, /openrouter, ou avec deepclaude --switch ds, et le proxy calcule aussi l’usage de tokens ainsi que les économies par rapport à Anthropic
  • L’outil peut être lancé via un profil de terminal VS Code/Cursor, et --remote ouvre une session Claude Code dans le navigateur ; le pont WebSocket utilise Anthropic tandis que les appels API du modèle sont envoyés à DeepSeek ou à d’autres via le proxy local
  • Pour le contrôle à distance, il faut claude auth login, un abonnement claude.ai et Node.js 18+ pour le proxy ; la licence du projet est MIT

1 commentaires

 
GN⁺ 2 시간 전
Avis Hacker News
  • Faire tourner Claude Code avec l’API DeepSeek revient essentiellement à un wrapper shell qui définit quelques variables d’environnement
    Il suffit de configurer ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_MODEL, puis d’exécuter claude $@

    • Sur des projets non confidentiels, je l’utilise ainsi avec DeepSeek v4 depuis environ une semaine, et comme je ne lui fais pas faire de tâches trop extrêmes, je remarque à peine une différence
      En revanche, l’API DeepSeek ne semble pas permettre d’exclure les données de l’entraînement, et ce sera probablement mieux quand ce sera proposé chez d’autres fournisseurs. OpenRouter semble pour l’instant simplement faire proxy vers DeepSeek
    • On dirait que n’importe quel projet qui se moque de Claude arrive n°1 sur Hacker News, même avec quatre lignes de code
    • La partie la plus intéressante de deepclaude, c’est plutôt le proxy local qui permet de changer de modèle en cours de session et le suivi unifié des coûts
      Mais ces fonctions sont trop enfouies dans un README qui semble écrit par un LLM, et à voir l’historique elles ont été ajoutées plus tard sans que la structure du README soit revue
      L’auteur a même commité un plan de promotion sur les réseaux sociaux qui a l’air efficace : https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • C’est pour ça que j’ai créé https://getaivo.dev, qui permet d’utiliser directement des modèles depuis des agents de code
      Il suffit de lancer quelque chose comme aivo claude -m deepseek-v4-pro
    • En pratique, cette approche permet d’utiliser n’importe quel modèle avec Claude Code, y compris des modèles locaux
  • Je ne vois pas très bien ce que cela apporte. DeepSeek explique déjà comment utiliser son API avec plusieurs CLI, dont Claude Code
    https://api-docs.deepseek.com/quick_start/agent_integrations...

    • Le README masque complètement des fonctions qui ne sont pas du tout anecdotiques : il lance un proxy de changement de modèle en cours de session et assure un suivi unifié des coûts quand on mélange Anthropic avec d’autres modèles
      Le LLM qui a rédigé le README n’a visiblement pas mis à jour la présentation générale du projet pour mettre ces points en avant
      Le plan marketing de l’auteur a aussi été commité : https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • À mon avis, ça ne veut probablement pas dire grand-chose. On a l’impression de quelqu’un qui n’a pas vraiment compris ni fait de recherches, a transformé sa première idée d’un seul coup, puis l’a poussée en première page de HN et sur tous les réseaux sociaux
    • On dirait un outil fait par un vibe coder pour des vibe coders
    • Il me semblait que le format des appels d’outils n’était pas exactement le même. Donc pour brancher n’importe quelle IA à Claude Code, il faudra sans doute faire une conversion de format
    • Je me demande à quel point ça fonctionne vraiment. J’ai essayé DeepSeek avec Hermes et Opencode, et même avec des instructions système très appuyées, il était très mauvais pour utiliser des outils de base comme l’outil de mémoire holographique de Hermes
  • Si vous cherchez une alternative à Claude Code, je recommande de regarder d’abord pi.dev ou opencode comme framework d’exécution
    Côté modèles, OpenCode Go semble actuellement avoir le meilleur rapport coût/efficacité, et on peut aussi le connecter directement à OpenRouter ou DeepSeek. Personnellement, je pense qu’il vaut mieux aller chez Kimi et prendre un abonnement kimi.com

    • Je propose aussi mon propre framework d’exécution : https://codeberg.org/mlow/lmcli
    • pi.dev et opencode sont bien, mais c’est côté Claude Code que je trouve le plus de plugins et de skills que j’ai envie d’utiliser
    • D’accord. OpenCode repose sur une base solide, et avec quelques ajustements, ça peut devenir un framework d’exécution très efficace
      Sur mon side project personnel, mouse.dev, je combine des éléments d’OpenCode, Claude Code et Hermes pour construire une architecture d’agent cloud qui fonctionne bien aussi sur mobile
    • J’ai regardé pi.dev, et le fait qu’il n’y ait que 7 issues ouvertes sur GitHub m’a paru suspect
      Puis j’ai découvert qu’un bot fermait automatiquement toutes les issues. Franchement, je n’ai pas de mots
    • Ollama Cloud a aussi un excellent rapport coût/efficacité. En un mois d’utilisation, je n’ai atteint la limite des 5 heures qu’une seule fois, et c’était en faisant tourner 8 agents en parallèle pendant 2 heures
  • Même à environ 1 dollar par million de tokens, il est étonnamment facile de consommer 200 dollars de tokens
    Quel que soit le calcul, une formule de codage est plus rentable

  • Si des performances de niveau Sonnet suffisent, ça ressemble clairement à une amélioration
    Mais Sonnet fait trop d’erreurs, donc optimiser les coûts sur un modèle de ce niveau me semble au final de valeur limitée. Cela dit, c’est bien d’avoir plus de choix

    • Beaucoup de gens obtiennent de bons résultats en utilisant Opus pour la conception et qwen3.6 hébergé en local pour l’implémentation
      Séparer conception avec Opus et implémentation avec DeepSeek devrait permettre de réduire pas mal les coûts. Personnellement, j’éviterais Anthropic complètement, mais je comprends pourquoi certains l’utilisent
    • On n’en est pas encore à un point de saturation où tous les modèles de pointe auraient à peu près la même intelligence et où on pourrait choisir surtout sur d’autres critères comme la vitesse ou la fenêtre de contexte utile
      Que ce soit pour une entreprise ou un employé, je ne vois pas bien pourquoi on n’utiliserait pas le meilleur modèle disponible actuellement avec le niveau de raisonnement maximal, ou au moins le deuxième plus élevé. Ce n’est pas bon marché, mais ce n’est pas non plus hors de prix
    • Le point central, ce n’est pas d’avoir un bon modèle, c’est d’avoir le meilleur modèle
      Pour produire une bonne architecture, il faut lire beaucoup de specs, de code, etc., donc on consomme beaucoup de tokens en entrée et en sortie, et pour corriger des bugs c’est pareil si on inclut les logs ou même Datadog
      Une fois la direction trouvée, les patchs sont mineurs, et sauf pour du refactoring ou du nettoyage, les économies réalisées avec un modèle moins cher restent faibles
      Les tests deviennent de plus en plus complexes. Rien qu’avec opencode go, on a GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro, DeepSeek V4 Flash
      Il faut maintenant faire tourner tout cela à grande échelle avec leurs bugs, et je me demande si je rate quelque chose. Je me demande à quoi servent réellement les modèles moins chers
    • Je continue à réapprendre cette leçon. Je démarre bien avec un modèle moins puissant, puis je lui donne un problème trop complexe, j’essaie plusieurs modèles, et au final j’abandonne pour appeler Opus 4.6 afin qu’il remette de l’ordre
    • Avec Sonnet, je n’ai pas du tout cette impression. Avec un Claude.md solide, une revue régulière des sorties et de bonnes pratiques de code imposées par les garde-fous CI de base, j’ai très rarement eu besoin de passer à Opus
  • Je me demande si on n’a pas simplement demandé à une IA de faire en one-shot quelque chose qui revient en gros à définir deux variables d’environnement

  • Je me demande si Claude Code est vraiment le meilleur framework d’exécution pour le code. Il existe des évaluations là-dessus ?

    • D’après mon expérience personnelle, non. Le même modèle Opus fonctionne mieux dans des frameworks d’exécution tiers comme Factory Droid ou Amp
      En revanche, Claude Code est l’outil le plus subventionné, à la fois via l’abonnement Max grand public et via les remises sur les tokens côté entreprise. Il bénéficie aussi d’une forte optimisation des coûts, avec mise en cache des tokens et réduction de l’intensité de raisonnement, mais cela se paie en qualité
  • Après avoir essayé DeepSeek V4 dans plusieurs CLI, c’est Langcli qui m’a le mieux convenu. Pour les tâches de programmation, le taux de cache dépasse 95 %
    On peut basculer de manière fluide et dynamique entre DeepSeek V4 Flash, V4 Pro et d’autres modèles grand public dans le même contexte, et c’est 100 % compatible avec Claude Code

  • J’ai passé la moitié de la journée à faire tourner CUDA et LLAMA sur une 5070TI
    J’ai pu l’essayer avec le mode agent de Roo, je lui ai fait écrire un plan puis je me suis arrêté, mais je compte continuer quand j’aurai plus de temps
    DeepSeek semble peu susceptible de disparaître soudainement puisqu’on peut l’auto-héberger tant qu’on a assez d’argent, mais les solutions locales m’enthousiasment davantage malgré tout
    En général, ce dont on a besoin, c’est de travail répétitif, pas de résoudre des problèmes difficiles

  • Ça donne clairement l’impression d’avoir été coécrit en vibe coding, et même le prix n’est pas juste

    • À l’avenir, ça va devenir vraiment difficile de trouver des titres qui ne sentent pas le vibe coding
    • C’est du vibe coding bâclé. Les machines peuvent facilement vérifier les détails, donc c’est là-dessus qu’il faudrait les utiliser