24 points par xguru 14 일 전 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Un projet open source qui permet d’utiliser l’API OpenAI sans acheter de crédits API séparés, en s’appuyant sur le jeton OAuth d’un compte ChatGPT
  • Une simple ligne npx openai-oauth lance un serveur proxy local et crée immédiatement un endpoint compatible OpenAI sur http://127.0.0.1:10531/v1, utilisable directement sans clé API
  • Réutilise le même endpoint spécial que celui employé en interne par OpenAI Codex CLI
  • Prend en charge les endpoints /v1/responses, /v1/chat/completions, /v1/models, avec fonctionnement complet du streaming, de l’appel d’outils et des traces de raisonnement
  • Également proposé comme provider Vercel AI SDK, permettant d’appeler directement des modèles en TypeScript avec createOpenAIOAuth()
  • Seuls les LLM pris en charge par Codex peuvent être utilisés. La liste des modèles est détectée automatiquement selon le plan Codex du compte, avec possibilité de la définir manuellement via l’option --models
  • Le proxy CLI fonctionne en mode sans état (stateless), il faut donc envoyer soi-même l’historique complet de la conversation à chaque appel
  • Le flux de connexion n’est volontairement pas inclus dans le bundle : il faut exécuter npx @openai/codex login pour générer le fichier d’authentification
    • Une fois exécuté, le jeton est stocké dans ~/.codex/auth.json, puis renouvelé automatiquement (ensureFresh activé par défaut), ce qui évite d’avoir à se soucier de son expiration
  • Projet communautaire non officiel sans lien avec OpenAI ; le cache d’authentification doit être traité comme un identifiant de niveau mot de passe
  • Utilisation recommandée uniquement pour des expérimentations personnelles en local ; un mauvais usage peut entraîner la suspension ou la résiliation du compte

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.