OpenClaude, né d’une fuite du code source de Claude Code — l’UI de Claude Code avec plus de 200 modèles, dont GPT-4o, Gemini et Ollama
(github.com/Gitlawb)Le 31 mars 2026, le code source de Claude Code a été exposé via une source map npm.
Créé sur cette base, OpenClaude est un fork qui ajoute un shim de provider compatible OpenAI, permettant d’utiliser avec l’interface de Claude Code tous les modèles prenant en charge l’API OpenAI chat completions, comme GPT-4o, DeepSeek, Gemini, Llama ou Mistral.
Caractéristiques principales
Tous les outils de Claude Code (bash, lecture/écriture/édition de fichiers, grep, glob, agents, tâches, MCP) fonctionnent tels quels ; seul le modèle backend peut être remplacé par celui de votre choix. 
Trois lignes de variables d’environnement suffisent :
export CLAUDE_CODE_USE_OPENAI=1
export OPENAI_API_KEY=sk-your-key-here
export OPENAI_MODEL=gpt-4o
Avec DeepSeek, OpenRouter (Gemini), Ollama (modèles locaux), etc., il suffit de changer OPENAI_BASE_URL pour se connecter à n’importe quel fournisseur. 
Prise en charge du backend ChatGPT Codex
Deux backends Codex sont également pris en charge : codexplan (GPT-5.4, raisonnement poussé) et codexspark (GPT-5.3 Codex Spark, boucle rapide). Si vous utilisez déjà Codex CLI, ~/.codex/auth.json est lu automatiquement. 
Système de profils
Avec un simple profile:init, vous pouvez détecter automatiquement Ollama en local ou configurer une clé OpenAI ; ensuite, dev:profile suffit pour démarrer directement avec le provider/modèle optimal. 
Installation
npm install -g @gitlawb/openclaude
Ou directement depuis les sources :
git clone https://node.gitlawb.com/.../openclaude.git
cd openclaude && bun install && bun run build
Commentaire : pour celles et ceux qui voulaient conserver l’UX de Claude Code (slash commands, streaming, raisonnement multi-étapes, etc.) tout en gagnant la liberté de choisir le coût du modèle ou l’API, ce projet apporte une réponse immédiate.
Comme il repose sur un code divulgué, il faudra surveiller les tensions juridiques avec Anthropic, mais sur le plan technique, l’ensemble est emballé de manière assez aboutie.
Celles et ceux qui utilisent GLM ou d’autres API compatibles OpenAI peuvent également s’y connecter immédiatement.
Aucun commentaire pour le moment.