32 points par princox 27 일 전 | Aucun commentaire pour le moment. | Partager sur WhatsApp

Le 31 mars 2026, le code source de Claude Code a été exposé via une source map npm.
Créé sur cette base, OpenClaude est un fork qui ajoute un shim de provider compatible OpenAI, permettant d’utiliser avec l’interface de Claude Code tous les modèles prenant en charge l’API OpenAI chat completions, comme GPT-4o, DeepSeek, Gemini, Llama ou Mistral.

Caractéristiques principales

Tous les outils de Claude Code (bash, lecture/écriture/édition de fichiers, grep, glob, agents, tâches, MCP) fonctionnent tels quels ; seul le modèle backend peut être remplacé par celui de votre choix. 
Trois lignes de variables d’environnement suffisent :

export CLAUDE_CODE_USE_OPENAI=1  
export OPENAI_API_KEY=sk-your-key-here  
export OPENAI_MODEL=gpt-4o  

Avec DeepSeek, OpenRouter (Gemini), Ollama (modèles locaux), etc., il suffit de changer OPENAI_BASE_URL pour se connecter à n’importe quel fournisseur. 

Prise en charge du backend ChatGPT Codex

Deux backends Codex sont également pris en charge : codexplan (GPT-5.4, raisonnement poussé) et codexspark (GPT-5.3 Codex Spark, boucle rapide). Si vous utilisez déjà Codex CLI, ~/.codex/auth.json est lu automatiquement. 

Système de profils

Avec un simple profile:init, vous pouvez détecter automatiquement Ollama en local ou configurer une clé OpenAI ; ensuite, dev:profile suffit pour démarrer directement avec le provider/modèle optimal. 
Installation

npm install -g @gitlawb/openclaude

Ou directement depuis les sources :

git clone https://node.gitlawb.com/.../openclaude.git  
cd openclaude && bun install && bun run build  

Commentaire : pour celles et ceux qui voulaient conserver l’UX de Claude Code (slash commands, streaming, raisonnement multi-étapes, etc.) tout en gagnant la liberté de choisir le coût du modèle ou l’API, ce projet apporte une réponse immédiate.
Comme il repose sur un code divulgué, il faudra surveiller les tensions juridiques avec Anthropic, mais sur le plan technique, l’ensemble est emballé de manière assez aboutie.
Celles et ceux qui utilisent GLM ou d’autres API compatibles OpenAI peuvent également s’y connecter immédiatement.

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.