- Depuis le début de cette semaine, Anthropic a durci sans préavis les limites d’usage pour les utilisateurs de Claude Code
- Les plaintes ont particulièrement explosé chez les gros utilisateurs du plan Max à 200 $/mois : une fois la limite atteinte, seul le message « Claude usage limit reached » s’affiche, sans explication détaillée
- Comme les limites ont été réduites sans annonce préalable ni communication sur le changement, certains utilisateurs ont cru à un downgrade de leur abonnement ou à une erreur de suivi de consommation
- Anthropic s’est contenté d’indiquer officiellement, sans davantage de détails, que « certains utilisateurs rencontrent des réponses lentes », sans préciser ni la cause exacte ni un calendrier de résolution
- Des surcharges API et des erreurs réseau se sont également produites, alimentant le mécontentement ; les utilisateurs dénoncent une perte de confiance et réclament des limites plus claires ainsi qu’une meilleure communication
Renforcement soudain des limites d’usage et confusion
- Depuis lundi dernier, les limites d’usage de Claude Code ont soudainement été durcies, entraînant pour de nombreux utilisateurs des blocages inattendus
- Seul le message « Claude usage limit reached » est affiché, avec l’indication que la restriction sera levée après une certaine durée (quelques heures), mais sans aucune précision sur le changement réel des limites
- Les abonnés les plus chers, notamment ceux du plan Max à 200 $, ont vu leur méfiance grandir, entre soupçons d’erreur de suivi de consommation et impression d’un downgrade du plan
- Sur la page des issues GitHub, entre autres, les plaintes sur l’opacité du calcul de l’usage se multiplient : « J’ai fait quelques requêtes en 30 minutes et j’ai déjà dépassé la limite de 900 messages »
- Un utilisateur a déclaré qu’« avec cette limite, il est impossible de faire avancer un projet », ajoutant que « Gemini ou Kimi ne sont pas non plus des alternatives »
Position officielle et problèmes réseau
- Anthropic a simplement indiqué que « certains utilisateurs rencontrent des réponses lentes », sans fournir d’explication supplémentaire
- Sur la même période, des erreurs de surcharge API et des incidents réseau se sont produits simultanément, alors même que la page de statut officielle affichait 100 % de disponibilité, d’où un décalage d’information
- Le fait que les limites et la capacité disponible relèvent d’une structure officieuse et variable, ajustée en fonction de la demande, a encore renforcé la confusion
Une grille tarifaire complexe et une politique d’usage qui ont alimenté la confusion
- La grille tarifaire d’Anthropic fournit des paliers et des indications sans garantie claire d’usage ; pour les offres gratuit/Pro/Max, les informations restent formulées en termes de « variation selon la demande » plutôt qu’en plafond explicite, ce qui entretient la confusion
- Plan Max : officiellement présenté comme offrant 20 fois plus de capacité que Pro, lui-même 5 fois plus que l’offre gratuite, mais la valeur absolue des limites d’usage n’est pas publique
- Même la limite gratuite est explicitement décrite comme « variable selon la demande », sans garantie absolue de volume d’usage
- Avant même ce durcissement, certains utilisateurs pouvaient en pratique atteindre des niveaux d’usage du service très élevés (par exemple plus de 1 000 $ d’appels API par jour), ce qui les amenait déjà à considérer le plan Max comme un modèle instable et difficilement soutenable sur le long terme
- Ils ne se disent donc pas surpris par le resserrement des limites en soi, mais soulignent que le manque de transparence est le vrai problème
- L’avis d’un utilisateur résume bien la situation : « Communiquez de manière transparente. L’absence de communication fait perdre la confiance »
Le fond du problème : communication et confiance
- Certains utilisateurs disent comprendre que la pérennité à long terme des limites du plan Max puisse poser question, mais insistent surtout sur la nécessité de « communiquer avec transparence »
- Les changements sans préavis et les explications floues entraînent une érosion de la confiance des utilisateurs
- Des limites clairement annoncées, une communication en amont et une réponse rapide aux incidents sont essentielles pour maintenir le service et préserver la confiance des clients
2 commentaires
Comme il s’agit d’un produit à la pointe du coding agentique, j’imagine qu’il attire un trafic considérable...
Avis Hacker News
Un utilisateur, qui a demandé à rester anonyme, mentionne qu’il n’a plus pu faire avancer son projet depuis l’apparition des limitations d’usage. Il a l’impression d’avoir atteint la limite du vibe coding, et que c’est désormais le moment de réfléchir par lui-même
Claude 4.0 n’est pas forcément plus intelligent que les autres modèles majeurs en termes d’intelligence brute. En revanche, il a été extrêmement bien affiné pour l’usage correct des outils en situation de codage. Si les autres modèles le rattrapent rapidement, il sera difficile d’imposer des limites aussi strictes. Du point de vue de Google, le fait de déployer directement son propre silicium et de l’optimiser lui donne un avantage en cashflow absolu. Fait intéressant, presque personne dans les commentaires ici ne semble comprendre les lois d’échelle du compute. Beaucoup ont en tête un modèle à la Uber, où le système doit finir par augmenter ses prix à un moment, mais l’IA n’est pas du travail humain. Avec le temps, le coût du calcul est censé baisser. Miser à perte à court terme est au contraire probablement la stratégie la plus gagnante, et je ne pense pas que ce soit stupide. Beaucoup attendent avec impatience l’explosion de la bulle pour pouvoir dire « je l’avais prédit » et avoir l’air intelligents, mais à long terme, c’est probablement bien la bonne direction
J’ai utilisé Claude Code avec le forfait de base à 20 $/mois sur un projet perso. Je n’ai même pas utilisé tout mon temps de travail, et pourtant le volume d’appels était suffisant. Je pensais atteindre rapidement la limite des 20 $, mais ça n’est jamais arrivé. Franchement, j’ai dû corriger moi-même pas mal de choses et coder à la main pour les parties que l’IA ne savait pas faire, mais la consommation de tokens m’a semblé vraiment généreuse. Comparé aux prix de l’API, j’avais l’impression d’utiliser 10 à 20 $ de tokens par jour. On dirait qu’ils ont fixé des limites extrêmement généreuses au départ pour attirer des utilisateurs, puis qu’ils resserrent maintenant parce qu’ils n’arrivent plus à suivre en capacité. Comme l’indique l’article, j’ai du mal à imaginer combien il faut coder pour dépasser la limite du forfait à 200 $/mois
Si Apple achetait un MacBook M4 puis en réduisait les performances au niveau d’un M1 sans aucun avertissement, les médias tech et les associations de consommateurs crieraient au scandale. Pourtant, quand des entreprises d’IA dégradent silencieusement un produit pour lequel on a payé 100 dollars, tout le monde reste calme. Je me demande comment cela peut être possible
J’ai l’impression que ce n’est pas encore le moment de se mettre en colère, puisqu’ils opèrent probablement à perte pour le moment. Cursor a le même problème avec une politique tarifaire opaque. Je paie le forfait Max, et d’après les rapports API, j’ai déjà consommé presque 1 000 $ d’usage. Je n’ai aucune idée du quota qu’il me reste, et même les informations tarifaires fournies par l’API ne me semblent pas crédibles
J’aimerais voir des vidéos de vrais environnements de travail où des gens atteignent régulièrement ces limites. Personnellement, j’utilise surtout sonnet pour coder, et avec le forfait à 20 $/mois, je n’ai même jamais atteint la limite de base. Je m’en sers pour la rédaction de specs, la documentation, les tâches répétitives à partir d’exemples bien connus, ou la création répétée de services spécifiques. Sauf à vouloir réécrire toute une base de code, pour les petites modifications, n’est-ce pas souvent plus rapide de corriger soi-même directement plutôt que d’expliquer le problème en anglais à une IA et de lancer un long cycle ?
Il y a quelques jours, j’ai effectué un gros refactoring sur deux projets tout en avançant aussi sur du design pour deux autres projets. En regardant mon usage de l’API Gemini, j’ai vu que j’avais déjà dépensé 200 $ en une journée. Des utilisateurs peuvent pousser l’intensité bien plus loin encore. Avec une politique « illimitée » à 200 $/mois, je pense qu’il est difficile pour l’entreprise d’en tirer un bénéfice. À l’avenir, on verra probablement apparaître des systèmes capables de répartir intelligemment le travail en fonction du coût. openrouter semble aussi aller dans cette direction, mais pour faire un routage correct, il faudra énormément d’informations de contexte
Après l’apparition des restrictions d’usage, quelqu’un a déclaré que « le projet n’avance vraiment plus ». Il disait avoir essayé Gemini, Kimi et d’autres, mais n’avoir trouvé aucun outil offrant un ensemble de fonctionnalités aussi complet que Claude Code. Selon lui, c’est du PMF (product-market fit)
J’ai commencé le forfait à 200 $/mois cette semaine, alors que je dépensais déjà plus de 300 $ par mois en tokens API. Je me demandais justement « comment est-ce qu’Anthropic peut rendre ça rentable ? ». Mais comme je me suis retrouvé avec des erreurs de surcharge API en continu, j’ai fini par résilier le forfait et revenir aux tokens API. Je ne sais pas du tout quelle est l’intention derrière cette politique, mais moi, je suis prêt à payer pour l’utiliser. Qu’ils arrêtent juste de brandir le “200 $/mois” comme argument marketing et garantissent réellement l’accès
Il est difficile de savoir s’il s’agit d’une baisse volontaire de la qualité du service, ou d’une réponse temporaire à une demande qui a augmenté trop vite au point de dépasser ce que les serveurs peuvent supporter. Si la demande continue de croître, ces restrictions pourraient même devenir encore plus sévères de façon permanente. Je ne pense pas qu’Anthropic essaie précisément d’optimiser son COGS au mauvais moment. Ils ont l’occasion de prendre tout le marché des DevTools, ils ont beaucoup de cash et une forte volonté d’investissement ; affaiblir la puissance du produit dans ce contexte me semble très court-termiste