5 points par GN⁺ 2025-07-18 | 2 commentaires | Partager sur WhatsApp
  • Depuis le début de cette semaine, Anthropic a durci sans préavis les limites d’usage pour les utilisateurs de Claude Code
  • Les plaintes ont particulièrement explosé chez les gros utilisateurs du plan Max à 200 $/mois : une fois la limite atteinte, seul le message « Claude usage limit reached » s’affiche, sans explication détaillée
  • Comme les limites ont été réduites sans annonce préalable ni communication sur le changement, certains utilisateurs ont cru à un downgrade de leur abonnement ou à une erreur de suivi de consommation
  • Anthropic s’est contenté d’indiquer officiellement, sans davantage de détails, que « certains utilisateurs rencontrent des réponses lentes », sans préciser ni la cause exacte ni un calendrier de résolution
  • Des surcharges API et des erreurs réseau se sont également produites, alimentant le mécontentement ; les utilisateurs dénoncent une perte de confiance et réclament des limites plus claires ainsi qu’une meilleure communication

Renforcement soudain des limites d’usage et confusion

  • Depuis lundi dernier, les limites d’usage de Claude Code ont soudainement été durcies, entraînant pour de nombreux utilisateurs des blocages inattendus
  • Seul le message « Claude usage limit reached » est affiché, avec l’indication que la restriction sera levée après une certaine durée (quelques heures), mais sans aucune précision sur le changement réel des limites
  • Les abonnés les plus chers, notamment ceux du plan Max à 200 $, ont vu leur méfiance grandir, entre soupçons d’erreur de suivi de consommation et impression d’un downgrade du plan
  • Sur la page des issues GitHub, entre autres, les plaintes sur l’opacité du calcul de l’usage se multiplient : « J’ai fait quelques requêtes en 30 minutes et j’ai déjà dépassé la limite de 900 messages »
  • Un utilisateur a déclaré qu’« avec cette limite, il est impossible de faire avancer un projet », ajoutant que « Gemini ou Kimi ne sont pas non plus des alternatives »

Position officielle et problèmes réseau

  • Anthropic a simplement indiqué que « certains utilisateurs rencontrent des réponses lentes », sans fournir d’explication supplémentaire
  • Sur la même période, des erreurs de surcharge API et des incidents réseau se sont produits simultanément, alors même que la page de statut officielle affichait 100 % de disponibilité, d’où un décalage d’information
  • Le fait que les limites et la capacité disponible relèvent d’une structure officieuse et variable, ajustée en fonction de la demande, a encore renforcé la confusion

Une grille tarifaire complexe et une politique d’usage qui ont alimenté la confusion

  • La grille tarifaire d’Anthropic fournit des paliers et des indications sans garantie claire d’usage ; pour les offres gratuit/Pro/Max, les informations restent formulées en termes de « variation selon la demande » plutôt qu’en plafond explicite, ce qui entretient la confusion
    • Plan Max : officiellement présenté comme offrant 20 fois plus de capacité que Pro, lui-même 5 fois plus que l’offre gratuite, mais la valeur absolue des limites d’usage n’est pas publique
    • Même la limite gratuite est explicitement décrite comme « variable selon la demande », sans garantie absolue de volume d’usage
  • Avant même ce durcissement, certains utilisateurs pouvaient en pratique atteindre des niveaux d’usage du service très élevés (par exemple plus de 1 000 $ d’appels API par jour), ce qui les amenait déjà à considérer le plan Max comme un modèle instable et difficilement soutenable sur le long terme
  • Ils ne se disent donc pas surpris par le resserrement des limites en soi, mais soulignent que le manque de transparence est le vrai problème
    • L’avis d’un utilisateur résume bien la situation : « Communiquez de manière transparente. L’absence de communication fait perdre la confiance »

Le fond du problème : communication et confiance

  • Certains utilisateurs disent comprendre que la pérennité à long terme des limites du plan Max puisse poser question, mais insistent surtout sur la nécessité de « communiquer avec transparence »
  • Les changements sans préavis et les explications floues entraînent une érosion de la confiance des utilisateurs
  • Des limites clairement annoncées, une communication en amont et une réponse rapide aux incidents sont essentielles pour maintenir le service et préserver la confiance des clients

2 commentaires

 
princox 2025-07-22

Comme il s’agit d’un produit à la pointe du coding agentique, j’imagine qu’il attire un trafic considérable...

 
GN⁺ 2025-07-18
Avis Hacker News
  • Un utilisateur, qui a demandé à rester anonyme, mentionne qu’il n’a plus pu faire avancer son projet depuis l’apparition des limitations d’usage. Il a l’impression d’avoir atteint la limite du vibe coding, et que c’est désormais le moment de réfléchir par lui-même

    • C’est vrai, mais la prémisse fondamentale vendue par ces entreprises, c’est justement qu’on peut externaliser une grande partie de la « réflexion », et les investissements liés à l’IA reposent largement sur cette idée. Vu les sommes énormes injectées, c’est assez étrange d’avoir l’impression que le marché reste inchangé
    • J’ai l’impression que ce ne sera pas juste « réfléchir un peu ». Pour continuer le projet, il faudra sans doute réfléchir beaucoup plus en profondeur, peut-être même mobiliser une capacité de raisonnement extrême
    • Quelqu’un aurait-il pu prévoir qu’une forte dépendance à un service tiers dont la disponibilité à long terme est incertaine puisse poser problème ? Cela donne l’impression de revenir à l’époque des compilateurs payants ou des mainframes distants, et les gens refont toujours les mêmes erreurs
    • J’en suis sûr à 99 % : ces utilisateurs ne sont pas des vibe coders incapables de coder eux-mêmes. Ces gens-là utiliseraient des outils comme lovable, pas des outils en terminal
    • Je suis venu commenter exactement cette même citation. Je suis surpris qu’on soit déjà arrivé à cette situation, mais en même temps, je me dis qu’il n’y a rien de vraiment surprenant
  • Claude 4.0 n’est pas forcément plus intelligent que les autres modèles majeurs en termes d’intelligence brute. En revanche, il a été extrêmement bien affiné pour l’usage correct des outils en situation de codage. Si les autres modèles le rattrapent rapidement, il sera difficile d’imposer des limites aussi strictes. Du point de vue de Google, le fait de déployer directement son propre silicium et de l’optimiser lui donne un avantage en cashflow absolu. Fait intéressant, presque personne dans les commentaires ici ne semble comprendre les lois d’échelle du compute. Beaucoup ont en tête un modèle à la Uber, où le système doit finir par augmenter ses prix à un moment, mais l’IA n’est pas du travail humain. Avec le temps, le coût du calcul est censé baisser. Miser à perte à court terme est au contraire probablement la stratégie la plus gagnante, et je ne pense pas que ce soit stupide. Beaucoup attendent avec impatience l’explosion de la bulle pour pouvoir dire « je l’avais prédit » et avoir l’air intelligents, mais à long terme, c’est probablement bien la bonne direction

    • Même si la loi de Moore reste valable, cela ne ferait que diviser par deux le coût du compute tous les 18 mois, à supposer que l’efficacité des ressources informatiques et le rendement énergétique par calcul ne changent pas. Dans les commentaires, quelqu’un disait que son usage était monté jusqu’à 4 000 $ avec un forfait à 200 $/mois ; en termes de coût-efficacité, il faudrait 8 ans pour compenser ça. Je me demande s’ils sont prêts à absorber des pertes pendant 8 ans
    • En réalité, les modèles actuels ne sont pas si « intelligents » qu’ils le prétendent. On est encore loin de l’AGI. La gestion du contexte, le découpage des tâches, les retries, la prévention des boucles infinies et l’exposition des bons outils sont bien plus importants
    • Je n’utilise pas de forfait à 100 $/mois ; je paie aux tarifs API et j’utilise Claude Code avec énormément de prudence. Le premier jour, il est entré dans une boucle, a répété les deux mêmes mauvaises solutions et a brûlé 30 $ avant de s’arrêter. Depuis, je dépense environ 3 à 5 $ par jour et j’accomplis beaucoup de choses efficacement. Anthropic doit trouver des moyens d’inciter les développeurs à utiliser Claude Code plus intelligemment. Si on perd le contrôle, ça part vraiment en vrille
    • Le problème des modèles, c’est qu’ils produisent énormément de contenu inutile. Tant que l’industrie reste petite, cette pollution n’est pas trop grave, mais à l’échelle mondiale, le nettoyage devient loin d’être trivial
    • Claude est bien aussi, mais si ce qu’on cherche, c’est de la « vraie intelligence », c’est une autre histoire. Personnellement, j’ai l’impression que les modèles medium 3 de Mistral ou devstral medium sont sous-estimés. Aucun des deux n’est vraiment « intelligent », mais pour obtenir du code valable sur des tâches simples, leur rapport qualité-prix est excellent
  • J’ai utilisé Claude Code avec le forfait de base à 20 $/mois sur un projet perso. Je n’ai même pas utilisé tout mon temps de travail, et pourtant le volume d’appels était suffisant. Je pensais atteindre rapidement la limite des 20 $, mais ça n’est jamais arrivé. Franchement, j’ai dû corriger moi-même pas mal de choses et coder à la main pour les parties que l’IA ne savait pas faire, mais la consommation de tokens m’a semblé vraiment généreuse. Comparé aux prix de l’API, j’avais l’impression d’utiliser 10 à 20 $ de tokens par jour. On dirait qu’ils ont fixé des limites extrêmement généreuses au départ pour attirer des utilisateurs, puis qu’ils resserrent maintenant parce qu’ils n’arrivent plus à suivre en capacité. Comme l’indique l’article, j’ai du mal à imaginer combien il faut coder pour dépasser la limite du forfait à 200 $/mois

    • Dans Claude Code, les possibilités d’usage efficace en tokens sont innombrables. Je me demande prudemment si un modèle dédié à Claude Code ne va pas bientôt apparaître. D’après mes expériences, une grande partie des tokens est gaspillée dans des répétitions absurdes, par exemple relire l’intégralité d’un script Python pour vérifier l’état des commentaires, ou relire un script R uniquement pour vérifier la fermeture des crochets. Rien qu’en corrigeant ce genre de schémas inefficaces, on économiserait déjà beaucoup de ressources
    • En ce moment, ce genre de limites change vraiment très vite, parfois d’une semaine à l’autre, voire de quelques jours, et cela varie aussi selon l’heure, l’emplacement ou la date de création du compte
    • Moi, j’ai atteint la limite sur CC en une seule requête au bout d’une heure. Ce n’était même pas Opus. Quand on l’utilise un peu, un message d’avertissement finit généralement par apparaître à l’avance, mais je trouve dommage qu’ils n’annoncent pas clairement la limite et donnent plutôt l’impression de pousser à l’upgrade vers un forfait supérieur
    • Le processus de réflexion (Thinking) est bien plus inefficace qu’un chat classique. Avec un usage intensif, on peut facilement brûler des centaines de dollars
    • Si vous n’arrivez pas à saturer votre quota, c’est peut-être simplement qu’il faut écrire des prompts plus créatifs. Moi, il m’arrive de lancer un prompt qui le fait travailler de manière autonome pendant près d’une heure, jusqu’à atteindre la limite. On peut créer des sous-agents et les faire tourner en parallèle, ou automatiser complètement des tâches sur une longue durée. Il faut voir plus large que « fais-moi juste ça »
  • Si Apple achetait un MacBook M4 puis en réduisait les performances au niveau d’un M1 sans aucun avertissement, les médias tech et les associations de consommateurs crieraient au scandale. Pourtant, quand des entreprises d’IA dégradent silencieusement un produit pour lequel on a payé 100 dollars, tout le monde reste calme. Je me demande comment cela peut être possible

    • Du point de vue de l’entreprise, la capacité est limitée, donc elle veut fournir un produit raisonnable à tous les utilisateurs. Il semble que définir et faire respecter des limites adéquates ait été extrêmement difficile. Ils paraissent aussi avoir du mal à prévoir la capacité réelle ou le nombre de participants. Il y a encore peu de concurrents et aucun vrai repère de prix. J’espère que cela s’améliorera avec le temps
  • J’ai l’impression que ce n’est pas encore le moment de se mettre en colère, puisqu’ils opèrent probablement à perte pour le moment. Cursor a le même problème avec une politique tarifaire opaque. Je paie le forfait Max, et d’après les rapports API, j’ai déjà consommé presque 1 000 $ d’usage. Je n’ai aucune idée du quota qu’il me reste, et même les informations tarifaires fournies par l’API ne me semblent pas crédibles

    • Un de mes collègues affirme avoir brûlé 1 000 $ par semaine ce mois-ci. C’est vraiment stupéfiant du point de vue de l’entreprise, puisqu’il ne paie qu’un abonnement à 200 $ par mois
    • Nous venons tout juste de terminer une alpha fermée hier, et nous réfléchissons au meilleur modèle tarifaire. Si vous avez des retours, ce serait vraiment apprécié : https://www.charlielabs.ai/pricing
    • J’aimerais savoir quel outil vous utilisez pour vérifier les prix. Je me demande si c’est cursor-stats
    • Je ne suis pas d’accord avec l’idée qu’il faudrait être indulgent sous prétexte qu’ils opèrent à perte. Je suis vraiment lassé des produits qui se lancent aujourd’hui sans modèle économique clair
  • J’aimerais voir des vidéos de vrais environnements de travail où des gens atteignent régulièrement ces limites. Personnellement, j’utilise surtout sonnet pour coder, et avec le forfait à 20 $/mois, je n’ai même jamais atteint la limite de base. Je m’en sers pour la rédaction de specs, la documentation, les tâches répétitives à partir d’exemples bien connus, ou la création répétée de services spécifiques. Sauf à vouloir réécrire toute une base de code, pour les petites modifications, n’est-ce pas souvent plus rapide de corriger soi-même directement plutôt que d’expliquer le problème en anglais à une IA et de lancer un long cycle ?

    • Moi, j’atteins la limite avec Opus et des workflows longs. Concrètement, je sépare en deux gros workflows — planification et implémentation — et rien que pour la recherche d’idées et la génération du document de plan, cela me coûte 10 à 30 $ en API. Pendant la relecture, je corrige moi-même les petites erreurs ou les excès, puis je passe à l’implémentation. La phase d’implémentation est plutôt moins chère. À partir de ce document de plan, je fais ensuite générer automatiquement une GitHub PR. Pour atteindre la rate limit du forfait Max à 100 $, il suffit de répéter ce cycle 3 ou 4 fois en 5 heures. On peut aussi balancer à Opus des consignes complexes, et il est très fiable. Si on utilise Code uniquement de manière interactive simple, on n’atteint presque jamais la limite. Ce sont surtout les vibe coders qui la percent souvent, semble-t-il
    • Quand l’IA cesse de converger vers la bonne direction, à ce moment-là, c’est de toute façon l’humain qui finit le travail
    • Je me demande si vous utilisez Claude Code avec sonnet. En usage web uniquement, les limites donnent l’impression d’être très larges
    • Cette semaine, même avec le forfait Max, il n’arrive plus à effectuer correctement des tâches simples. Ce n’est pas juste une surcharge touchant uniquement les utilisateurs Max. On a l’impression que des rate limits tombent de manière aléatoire, parfois dès le premier prompt
    • Globalement, aller le faire soi-même est plus rapide, mais comme je navigue entre plusieurs tâches de manière interrupt-driven, je me contente de lancer rapidement un prompt et j’attends pendant qu’il travaille en arrière-plan. Même si l’agent met trois fois plus de temps, mon propre temps consommé se limite à quelques secondes de saisie
  • Il y a quelques jours, j’ai effectué un gros refactoring sur deux projets tout en avançant aussi sur du design pour deux autres projets. En regardant mon usage de l’API Gemini, j’ai vu que j’avais déjà dépensé 200 $ en une journée. Des utilisateurs peuvent pousser l’intensité bien plus loin encore. Avec une politique « illimitée » à 200 $/mois, je pense qu’il est difficile pour l’entreprise d’en tirer un bénéfice. À l’avenir, on verra probablement apparaître des systèmes capables de répartir intelligemment le travail en fonction du coût. openrouter semble aussi aller dans cette direction, mais pour faire un routage correct, il faudra énormément d’informations de contexte

  • Après l’apparition des restrictions d’usage, quelqu’un a déclaré que « le projet n’avance vraiment plus ». Il disait avoir essayé Gemini, Kimi et d’autres, mais n’avoir trouvé aucun outil offrant un ensemble de fonctionnalités aussi complet que Claude Code. Selon lui, c’est du PMF (product-market fit)

  • J’ai commencé le forfait à 200 $/mois cette semaine, alors que je dépensais déjà plus de 300 $ par mois en tokens API. Je me demandais justement « comment est-ce qu’Anthropic peut rendre ça rentable ? ». Mais comme je me suis retrouvé avec des erreurs de surcharge API en continu, j’ai fini par résilier le forfait et revenir aux tokens API. Je ne sais pas du tout quelle est l’intention derrière cette politique, mais moi, je suis prêt à payer pour l’utiliser. Qu’ils arrêtent juste de brandir le “200 $/mois” comme argument marketing et garantissent réellement l’accès

    • Je me demande si vous avez vécu ça avec Opus, et sur quel type de travail. Personnellement, je n’ai consommé énormément de tokens que lorsque je travaillais sur un gros fichier source de 2,5 Mo. Sinon, je n’arrive même pas à épuiser le forfait à 100 EUR. J’utilise surtout Opus
    • Je me demande aussi si les prix de l’API ne sont pas tout simplement bien plus élevés que le coût réel. J’ai juste rechargé 5 $ pour tester et m’amuser un peu, et cela a tourné environ 30 minutes de calcul, ce qui correspondait en pratique à près de 3 heures d’expérience utilisateur. En gros, cela fait environ 10 $/heure, soit 90 000 $ par an. Je ne suis pas encore convaincu que l’achat et l’exploitation de GPU coûtent réellement 90 000 $ par an. J’ai encore du mal à croire que les coûts d’infrastructure GPU dépassent réellement le stade d’un simple investissement matériel
  • Il est difficile de savoir s’il s’agit d’une baisse volontaire de la qualité du service, ou d’une réponse temporaire à une demande qui a augmenté trop vite au point de dépasser ce que les serveurs peuvent supporter. Si la demande continue de croître, ces restrictions pourraient même devenir encore plus sévères de façon permanente. Je ne pense pas qu’Anthropic essaie précisément d’optimiser son COGS au mauvais moment. Ils ont l’occasion de prendre tout le marché des DevTools, ils ont beaucoup de cash et une forte volonté d’investissement ; affaiblir la puissance du produit dans ce contexte me semble très court-termiste

    • Beaucoup d’utilisateurs ont quitté Cursor très rapidement. Changer d’IDE est une grosse affaire pour moi, donc je n’ai même jamais essayé Cursor. Claude Code est un concept bien meilleur, et il n’a pas nécessairement besoin d’être lié à un IDE. Pour cette raison, il est même plus facile de passer à un concurrent. Vu sous cet angle, la nature même de Claude Code en tant que produit fondé sur le modèle pourrait faire que la conquête de parts de marché perde de son sens