6 points par GN⁺ 2026-02-20 | 2 commentaires | Partager sur WhatsApp
  • Le document sur les politiques juridiques et de conformité de Claude Code a été mis à jour, et l’usage par des tiers des jetons d’authentification OAuth est désormais interdit
  • Il est explicitement indiqué que l’utilisation, dans d’autres produits, outils ou services, de jetons OAuth émis pour des comptes Free, Pro ou Max constitue une violation des conditions d’utilisation
  • Pour intégrer des fonctionnalités de Claude, les développeurs doivent utiliser une authentification par clé API via Claude Console ou un fournisseur cloud pris en charge
  • Anthropic se réserve le droit d’appliquer ces restrictions sans préavis, et des mesures peuvent être prises en cas de violation
  • Cette mesure clarifie l’interdiction de fournir à des services tiers la connexion à Claude.ai ou les droits liés à un abonnement, et renforce l’unification du système d’authentification des développeurs

Conditions juridiques et licence

  • Les utilisateurs de Claude Code sont soumis soit aux conditions commerciales d’Anthropic (pour les utilisateurs de Team, Enterprise et de l’API Claude), soit aux conditions de service destinées aux consommateurs (pour les utilisateurs Free, Pro et Max)
  • En cas d’usage commercial, même l’accès via des plateformes tierces comme AWS Bedrock ou Google Vertex reste soumis au contrat existant

Conformité et traitement des données médicales

  • Si un client ayant conclu un Business Associate Agreement (BAA) active la fonctionnalité Zero Data Retention (ZDR), ce BAA s’étend automatiquement aussi au trafic API de Claude Code
  • En cas d’utilisation liée à des données médicales, le trafic API des clients couverts par un BAA est protégé via Claude Code

Politique d’utilisation et usages autorisés

  • L’usage de Claude Code est régi par l’Anthropic Usage Policy, et les limites d’utilisation des offres Pro et Max sont basées sur un volume d’usage général à l’échelle individuelle
  • L’authentification OAuth n’est autorisée que pour Claude Code et Claude.ai, et il est interdit d’utiliser, dans d’autres produits, outils ou services (ex. : Agent SDK), les jetons OAuth de comptes Free, Pro ou Max
    • Ces pratiques sont considérées comme une violation des conditions de service grand public
  • Pour intégrer des fonctionnalités de Claude, les développeurs doivent utiliser une authentification par clé API via Claude Console ou un fournisseur cloud pris en charge
  • Anthropic interdit l’exploitation de services tiers qui fournissent une connexion à Claude.ai ou utilisent, au nom de l’utilisateur, des identifiants Free, Pro ou Max pour effectuer des requêtes
  • Anthropic se réserve le droit d’appliquer ces restrictions sans préavis et invite à contacter l’équipe commerciale pour toute question liée aux méthodes d’authentification

Sécurité et confiance

  • Les signalements de vulnérabilités de sécurité sont reçus via la plateforme HackerOne, dans le cadre du programme de sécurité d’Anthropic
  • Les informations relatives à la confiance et à la transparence sont disponibles dans le Trust Center et le Transparency Hub d’Anthropic

Résumé

  • Anthropic interdit explicitement l’utilisation, par des services tiers, de l’authentification OAuth de Claude Code
  • Seule l’authentification par clé API est autorisée, et toute violation peut entraîner des sanctions pour non-respect des conditions
  • Cette politique vise à renforcer la sécurité de l’écosystème développeur et à unifier le système d’authentification

2 commentaires

 
armila 2026-03-02

Gemini aussi est bloqué. Claude aussi, visiblement.
Mais si on paie pour utiliser l’API, il n’y a pas de problème.

Je ne comprends pas l’idée de certains étrangers selon laquelle s’authentifier via oauth sur un service tiers pour l’utiliser à bas prix avec un abonnement moins cher ne poserait aucun problème.

 
GN⁺ 2026-02-20
Réactions sur Hacker News
  • En lisant plusieurs commentaires, j’ai l’impression que tout le monde passe à côté d’un point important
    Claude Code est en pratique une structure de lock-in, où Anthropic capte toute la valeur
    Si le frontend et l’API sont séparés, la moitié des utilisateurs peut partir très vite
    Même si ce n’est pas rentable aujourd’hui, ils peuvent espérer de gros profits plus tard quand les coûts d’inférence baisseront et que les concurrents auront disparu
    Au final, cela pourrait s’étendre à la marque, à la plateforme et à tout l’écosystème, pour devenir un système gigantesque relié comme chez Apple avec cloud, DB, agent de code review, etc.

    • J’ai l’impression qu’Anthropic sera au final du côté des perdants
      Les modèles sont trop substituables, et Claude Code est lourd et rigide
      Ce type d’approche freine l’innovation et érode la confiance accumulée par l’équipe des modèles
    • Tout le monde comprend pourquoi Anthropic prend cette décision
      Le problème, c’est que ce changement est centré sur l’intérêt de l’entreprise au détriment des utilisateurs
      C’est une situation proche de l’ancienne hype du Metaverse, où l’idée que « l’entreprise doit contrôler la plateforme » a fini par nuire aux utilisateurs
    • « Entraîner un harness spécifique » ne veut pas dire grand-chose
      En pratique, j’ai l’impression que la combinaison pi + Claude est meilleure que Claude Code
      À l’avenir, chaque entreprise aura probablement son propre réglage RL secret, et on verra une spécialisation du type Gemini pour la doc, Claude pour le design, Codex pour la planification
      Je pense qu’il n’est pas économiquement viable qu’une seule entreprise ait le meilleur modèle dans tous les domaines
    • Si Anthropic veut survivre à long terme, il doit construire une infrastructure et un écosystème de services centrés sur Claude
      J’imagine par exemple un modèle où l’utilisateur paie 20 dollars par mois pour Claude Code, puis 100�00 dollars par mois d’infrastructure Anthropic pour exécuter l’app
    • Je ne suis pas d’accord avec l’idée que « toute la valeur revient à Anthropic », mais je pense qu’une certaine part est inévitable pour maintenir l’activité
  • En ce moment, on a l’impression que les entreprises deviennent de plus en plus hostiles envers les utilisateurs d’API
    Spotify a presque fermé son API, Reddit impose un package npm complexe, Facebook exige des informations fiscales même pour du développement
    Les API intuitives et utiles d’autrefois sont en train de disparaître

    • Si on paie, il n’y a pas de restriction
      Mais pour les services par abonnement, l’usage est limité à l’interne
      L’API est libre d’accès, mais facturée au token, donc l’abonnement a forcément plus de contraintes
      Personnellement, je trouve que c’est un contrat équitable
    • Au final, tous les jardins deviennent des walled gardens
    • La décision de Spotify est probablement liée à l’incident de sauvegarde complète par Anna’s Archive
    • Si on ne peut pas vendre la publicité via l’API, cette fonctionnalité ne peut qu’avoir une priorité faible
    • On peut résumer ça avec cette image de mème
  • Si OpenAI sort un abonnement à 100 dollars par mois, je compte abandonner complètement Claude
    Dernièrement, la qualité du modèle Opus s’est brutalement dégradée, et même après les excuses, seule la moitié du problème a été corrigée
    À l’inverse, Codex donne directement la bonne réponse dès le premier essai
    D’autres entreprises vont vers l’open source, alors qu’Anthropic devient plus fermé
    Ces politiques hostiles sont le coup de grâce

    • Codex 5.3 d’OpenAI demande une pièce d’identité + vérification faciale lorsqu’une conversation est classée comme à haut risque
      La liste des issues associées contient aussi de nombreux signalements de faux positifs
    • Il y a beaucoup de plaintes disant que le modèle s’est dégradé, mais une bonne partie relève peut-être du biais de confirmation
    • Dire que « ça s’est dégradé en une semaine » reflète peut-être simplement la faible capacité d’attention de notre époque
    • Moi aussi, j’ai clairement eu l’impression qu’Opus 4.6 était moins bon que 4.5
      Du coup, je vais commencer à utiliser sérieusement GPT 5.3 Codex
    • Même avec le même forfait à 20 dollars, les limites de requêtes chez OpenAI paraissent plus de 10 fois plus généreuses
  • Je voudrais créer une application commerciale qui laisse l’utilisateur se connecter avec son propre compte ChatGPT/Claude via un token OAuth,
    mais il est difficile de trouver une réponse claire sur ce qui est autorisé
    À lire les ToS, cela semble interdit, mais en pratique il y a beaucoup de confusion
    J’aimerais aussi connaître la position d’autres entreprises

    • Anthropic l’a dit clairement à plusieurs reprises
      l’abonnement est réservé à ses propres produits, et pour le reste il faut passer par la facturation API
    • Les tokens OAuth Claude ne peuvent pas être utilisés à l’extérieur
      Par le passé, certains usages tentaient de se faire passer pour Claude Code, mais c’était déjà contraire aux règles
      Seul Codex a exceptionnellement été autorisé à utiliser OpenCode
    • Une interprétation souple est avantageuse, mais objectivement c’est clairement interdit
    • Selon les ToS, l’authentification OAuth est réservée à Claude Code et Claude.ai,
      et l’utiliser dans d’autres outils ou SDK constitue une violation des conditions d’utilisation
    • En conclusion, la réponse est clairement « non »
  • Les modèles par abonnement sont des produits d’appel destinés à attirer dans l’écosystème
    Si des tiers en abusent, on crée un arbitrage où un abonnement à 20 dollars permet d’obtenir 200 dollars d’inférence
    OpenAI et GitHub prennent la stratégie inverse en autorisant l’accès tiers pour augmenter la rétention des abonnements
    Au final, quand le modèle économique des deux entreprises sera stabilisé, leurs politiques convergeront probablement

    • Mais il existe déjà des limites d’usage sur les abonnements, donc je me demande s’il est réellement possible d’en consommer l’équivalent de 200 dollars
  • Les entreprises d’IA perdent de l’argent sur les abonnements
    C’est pourquoi on voit des hausses de prix, l’introduction de publicité et un recentrage sur l’API
    Le vrai argent vient de la facturation au token

    • L’inférence elle-même est peu coûteuse, mais le modèle consiste à y adosser aussi les coûts de R&D pour les récupérer
      Bloquer les tiers n’est pas une simple restriction, c’est une stratégie d’écosystème fermé à la Apple
      Mais c’est défavorable aux développeurs, et des modèles concurrents comme Codex ou Kimi sont déjà largement assez bons
      Imposer une UX fermée finit au contraire par faire perdre en compétitivité
    • En pratique, c’est une structure sans véritable seuil de rentabilité
    • Cela dépend de la méthode comptable
      Si on regarde seulement l’inférence, c’est rentable, mais si on inclut le coût de développement de la prochaine génération de modèles, c’est déficitaire
    • Même les états financiers montrent clairement les pertes, mais beaucoup continuent à le nier
    • Dans ce cas, je me demande si le modèle de facturation au token est lui aussi déficitaire
  • Un post sur X d’un employé de l’équipe Claude Code a complètement dégradé la PR
    Beaucoup d’utilisateurs sont déjà perdus

    • En réalité, la politique n’a pas changé, c’est la documentation qui a été clarifiée
    • Mais il reste encore des zones ambiguës, comme « OpenClaw est-il interdit ? »
      Avec des limites de tokens, il est difficile de comprendre pourquoi c’est bloqué
    • On dirait qu’Anthropic n’a pas de politique de communication
    • En pratique, l’usage par des tiers était déjà bloqué, et cette annonce n’a fait que l’officialiser
  • Je suis abonné Max depuis longtemps, mais leurs outils sont vraiment pénibles
    Claude Desktop est lent, Claude Code a de gros problèmes de bugs et d’utilisation CPU
    Le SDK Agent est mal documenté et inachevé
    En plus, tout est closed source, donc impossible de corriger quoi que ce soit
    Et maintenant, même l’usage du SDK est interdit ; comme je ne peux pas assumer 500 dollars par mois de frais API, je vais migrer ailleurs

    • Il est possible qu’Anthropic ait durci sa politique justement parce qu’il y a beaucoup d’utilisateurs dans ce cas
    • Moi aussi je trouve Claude Code truffé de bugs, mais côté fonctionnalités, il me semble encore meilleur que les autres CLI
    • C’est une UX parfaitement alignée avec la philosophie LLM selon laquelle « l’inefficacité est une vertu »
    • Je tiens moi aussi une liste de bugs, il y en a plus de 30, et certains entrent dans des boucles infinies qui consomment des dizaines de millions de tokens
    • Hier, Claude Code utilisait 55 Go de RAM
  • Les clients clés aiment construire eux-mêmes des interfaces personnalisées,
    mais Anthropic modifie ses ToS pour l’empêcher
    Ce type de politique fermée dégrade la relation et ne fait que renforcer l’idée que « Claude ne durera pas »
    Je reste pour l’instant, mais je partirai sans aucun regret le moment venu

    • Toutes les entreprises finiront probablement par évoluer ainsi
      Nous sommes encore dans une phase de conquête de parts de marché, mais dès qu’il y aura monopole, elles érigeront des murs autour du jardin
      Anthropic n’en est pas encore là, mais ils se sont précipités
    • Les ressources GPU sont limitées et les utilisateurs, eux, sont illimités
      Un modèle à 20 dollars par mois avec requêtes illimitées est insoutenable
      Cette situation me fait presque éprouver un peu de sympathie pour Dario
    • J’ai l’impression qu’on a simplement vécu une période de chance où l’on pouvait utiliser ces services en dessous du prix du marché
    • Si l’on veut construire son propre client, l’API est faite pour ça
      L’usage de Claude lui-même n’a pas été interdit
  • Je vais continuer à utiliser Agent SDK avec mon abonnement Pro
    Mon projet n’est pas OpenClaw, c’est pour un usage personnel
    J’ai simplement remplacé un proxy en ligne de commande pour les requêtes Claude Code par le SDK,
    et je ne vois pas pourquoi cela poserait problème
    Ils ne s’en soucieront peut-être pas au niveau individuel,
    mais je vais attendre la clarification de politique annoncée pour demain