Anthropic double les limites d’utilisation de Claude grâce à un accord de capacité de calcul avec SpaceX
(anthropic.com)- Anthropic a annoncé augmenter les limites d’utilisation de Claude Code et de l’API Claude grâce à un partenariat avec SpaceX et à plusieurs accords récents de capacité de calcul
- La limite d’utilisation sur 5 heures de Claude Code est doublée (plans Pro, Max, Team et Enterprise à licences par siège), et la réduction des limites aux heures de pointe est supprimée pour les comptes Pro et Max
- Les API rate limits du modèle Claude Opus ont été fortement relevées, et cette capacité supplémentaire améliore directement la disponibilité pour les abonnés Claude Pro et Claude Max
- Anthropic a signé un accord pour utiliser l’intégralité de la capacité de calcul du data center Colossus 1 de SpaceX, ce qui lui donnera accès d’ici un mois à plus de 300 MW de nouvelle capacité et à plus de 220 000 GPU NVIDIA
- L’expansion de la capacité de calcul d’Anthropic s’ajoute à ses accords avec Amazon, Google et Broadcom, Microsoft et NVIDIA, ainsi que Fluidstack, tout en tenant compte de l’infrastructure locale, du coût de l’électricité et des investissements dans les communautés locales
Extension des limites d’utilisation de Claude
- Anthropic augmente les limites d’utilisation de Claude Code et de l’API Claude grâce à son partenariat avec SpaceX et à plusieurs accords récents de capacité de calcul
- Les trois changements entrent tous en vigueur dès le jour de l’annonce
- La limite d’utilisation sur 5 heures de Claude Code est doublée pour les plans Pro, Max, Team et Enterprise à licences par siège
- Pour les comptes Pro et Max, la réduction des limites aux heures de pointe de Claude Code est supprimée
- Les API rate limits du modèle Claude Opus ont également été fortement relevées
Nouveau partenariat de capacité de calcul avec SpaceX
- Anthropic a signé un accord pour utiliser l’intégralité de la capacité de calcul du data center Colossus 1 de SpaceX
- Cet accord lui donnera accès d’ici un mois à plus de 300 MW de nouvelle capacité et à plus de 220 000 GPU NVIDIA
- Cette capacité supplémentaire améliore directement la disponibilité pour les abonnés Claude Pro et Claude Max
- Cet accord s’ajoute aux précédentes annonces majeures d’Anthropic sur l’extension de sa capacité de calcul
- Accord avec Amazon jusqu’à 5 GW : inclut environ 1 GW de nouvelle capacité d’ici fin 2026
- Accord de 5 GW avec Google et Broadcom : mise en service prévue à partir de 2027
- Partenariat stratégique avec Microsoft et NVIDIA : inclut 30 milliards de dollars de capacité Azure
- Investissement de 50 milliards de dollars dans l’infrastructure IA américaine avec Fluidstack
- L’entraînement et l’exécution de Claude s’appuient sur plusieurs types de matériel IA, dont AWS Trainium, les TPU de Google et les GPU NVIDIA
- Anthropic continue d’explorer des opportunités pour mettre en ligne de la capacité supplémentaire
- Dans le cadre de l’accord avec SpaceX, Anthropic se dit également intéressée par une collaboration avec SpaceX pour développer plusieurs GW de capacité de calcul IA en orbite
Expansion internationale et infrastructure locale
- Les clients enterprise de secteurs fortement réglementés, comme les services financiers, la santé ou le gouvernement, ont de plus en plus besoin d’infrastructures locales pour répondre aux exigences de conformité et de résidence des données
- En conséquence, une partie de l’expansion de capacité d’Anthropic se fait à l’international
- La collaboration récemment annoncée avec Amazon inclut de la capacité d’inférence supplémentaire en Asie et en Europe
- Les régions où ajouter de la capacité sont choisies avec soin, en coopération avec des démocraties disposant de cadres juridiques et réglementaires capables de soutenir des investissements à grande échelle
- La sécurité des chaînes d’approvisionnement en matériel, réseau et installations nécessaires à cette capacité de calcul constitue aussi un critère important
Coût de l’électricité et investissement dans les communautés locales
- Anthropic a récemment annoncé son engagement à prendre en charge toute hausse des tarifs d’électricité pour les consommateurs qui serait causée par ses data centers aux États-Unis
- Dans le cadre de son expansion internationale, l’entreprise étudie la possibilité d’étendre cet engagement à de nouvelles juridictions
- Elle cherche également à collaborer avec des responsables locaux afin de réinvestir dans les communautés où ses installations sont situées
1 commentaires
Avis sur Hacker News
En revanche, l’entraînement reste coûteux, donc Anthropic/OpenAI finiront par se tourner vers l’activité d’entraînement
Les modèles deviennent des actifs louables ou achetables, et les utilisateurs les feront tourner sur du matériel d’inférence, loueront ce matériel ou le posséderont
Ou bien ils paieront une prime à une entreprise qui se charge de tout cela à leur place
Je me demande s’il existe un billet de blog ou autre qui explique quelle infrastructure est utilisée, ne serait-ce que pour l’inférence des derniers modèles comme Opus
J’imagine que c’est secret, mais si on peut utiliser directement les modèles sur AWS Bedrock, ça ne donne peut-être pas quand même quelques indices ?
Les datacenters fonctionnent parfois de manière absurde parce que la vitesse de montée en charge opérationnelle compte plus que le coût
Il y a des régulations des compagnies d’électricité, ainsi que des contraintes comme les taux de rampe pour ne pas déstabiliser le réseau, et certains datacenters les enfreignent fortement
Comme la charge varie beaucoup, ils alimentent ça avec des générateurs à gaz naturel derrière le compteur, et des arbres censés tenir 7 ans ne durent plus que 10 mois à cause des cycles répétés de démarrage et d’arrêt
https://www.volts.wtf/p/doing-data-centers-the-not-dumb-way
Côté calcul, NVIDIA a une architecture de référence standard
https://www.nvidia.com/en-us/technologies/enterprise-referen...
Je n’ai pas regardé en détail, mais il doit y avoir du réseau inter-GPU Mellanox, du gros code sur mesure pour répartir les tenseurs sur les GPU, et du code pour déplacer les activations entre nœuds GPU
Anthropic héberge ses modèles dans AWS Bedrock comme service managé, et les clients appellent le LLM comme ils appelleraient n’importe quelle autre API
On ne voit pas quelle infrastructure AWS traite réellement ces requêtes API
Ils transforment en source de revenus assez importante avant l’IPO un actif créé pour Grok, ce gouffre à cash
Et en même temps, cela sert aussi à refiler la dette de Twitter au public, donc les comptables ont clairement du talent
Anthropic obtient la puissance de calcul dont elle a désespérément besoin pour continuer à croître, Elon loue de la capacité que xAI ne parvenait pas à utiliser correctement faute de demande pour Grok, et SpaceX peut afficher du chiffre d’affaires dans ses comptes en vue de l’IPO
La phrase « nous ajouterons prudemment de la capacité en coopération avec des démocraties dotées de cadres juridiques et réglementaires soutenant des investissements de cette ampleur » se traduit en langage réel par quelque chose de proche de « nous ferons passer le profit avant tout »
Elon est une figure d’extrême droite qui soutient Trump, et Trump n’est pas particulièrement démocratique non plus, mais cela veut dire que nous avons vraiment besoin de plus d’argent
On dirait aussi qu’ils essaient de faire oublier que xAI a reçu des financements de gouvernements non démocratiques du Moyen-Orient, et qu’Anthropic achèterait probablement même de la capacité de calcul chinoise si cela permettait de vendre ses modèles
Un datacenter n’est pas du matériel plug-and-play doté de spécifications bien écrites et d’interfaces standardisées à l’international
Si Elon veut construire un datacenter orbital, Anthropic sera ravi d’y faire tourner ses modèles
Il n’y a pas vraiment lieu de douter qu’Elon puisse construire un datacenter orbital ; la vraie question, c’est la viabilité économique par rapport à une solution terrestre
Si ça fonctionne, tant mieux ; sinon, tant pis
Dans le cadre d’un accord pour obtenir l’accès à des datacenters terrestres, ils font passer un calcul orbital manifestement fantaisiste pour quelque chose de plus crédible que ça ne l’est
Je peux imaginer que ce genre de chose existe un jour, mais comme le FSD, ça ne semble absolument pas proche de devenir réel
Le coût de dire ça est pratiquement nul, et plus tard ils pourront toujours expliquer qu’ils ont perdu l’intérêt
S’il y a un coût, c’est à peine un peu de réputation
En ajoutant de la demande sur le réseau, il risque aussi davantage de provoquer de grandes coupures pendant des épisodes météorologiques extrêmes, mettant encore plus les habitants en danger
https://en.wikipedia.org/wiki/Colossus_(supercomputer)#Envir...
On peut donc ajouter Anthropic à la liste des entreprises qui parlent beaucoup de sécurité mais font en réalité passer le profit avant la sécurité
Même dans le lien Wikipédia inclus, il est dit qu’il peut y avoir des subtilités autour des permis, mais je n’ai rien vu qui permette d’affirmer que l’électricité est « illégale »
Il ne fabrique pas de produits chimiques et ne fait rien de ce genre
Il faut être très sceptique face à ce type d’allégations, et surtout quand une entreprise riche est impliquée, parce que des affirmations de préjudice simplement « plausibles et persistantes » peuvent suffire à entraîner des procès ou une pression pour transiger
Si c’est vrai, c’est une énorme niche fiscale, et il n’est pas surprenant que l’investissement en capital dans les datacenters soit si élevé
[0] https://www.datacenterknowledge.com/regulations/how-are-data...
Cela signifie simplement qu’on peut atteindre la limite hebdomadaire en 3 jours au lieu de 5
Les semaines où je l’utilise beaucoup, je m’en sers de manière soutenue plus de 6 heures par jour
En revanche, je suis toujours assez strict pour garder les sessions sous les 200 000 à 250 000 tokens
Je fais 3 à 5 sessions par semaine
Dès que la tâche est un peu plus complexe, j’épuise vite la fenêtre de 5 heures, ce qui est frustrant, mais je n’ai encore jamais atteint la limite hebdomadaire
J’imagine qu’il y a pas mal de gens dans mon cas
Si on pousse vraiment, on peut facilement consommer en une seule journée toute la limite hebdomadaire de l’offre Max à 200 $ par mois
Dans ma tête, je calcule mon quota hebdomadaire à l’échelle de la journée, soit environ 14 % par jour, et j’essaie donc d’en utiliser moins en début de semaine pour me permettre d’être plus libre ensuite
Au bout du compte, les deux derniers jours, je me demande comment écouler le quota que j’ai gardé en réserve
La fenêtre de 5 heures rend ça encore plus difficile, et le dernier jour de la semaine, je finis par essayer d’injecter 10 % à chaque fenêtre de 5 heures pendant toute ma période d’éveil, ce que je déteste vraiment
Je veux travailler pendant mes heures les plus productives, pas caler mon travail sur des fenêtres horaires absurdes
Je n’ai pas envie de penser des choses comme : « Je vais probablement utiliser Claude surtout vers 11 h, donc je devrais envoyer un message idiot à Haiku à 7 h 30 pour démarrer la fenêtre de 5 heures et pouvoir repasser dessus à 12 h 30 »
Donc oui, ce changement est bienvenu, mais c’est juste une légère atténuation d’un problème qu’ils ont eux-mêmes créé, tout en faisant comme s’ils rendaient service aux utilisateurs
Je comprends l’intention de réduire l’usage aux heures de pointe, mais je déteste quand même ça
Au final, on dirait qu’Elon a renoncé à xAI pour vendre de la capacité de calcul
Grok 4.1 Fast était le moyen le moins cher de faire de la recherche sur X, même moins cher que l’API X, mais il a disparu le 15 mai
https://docs.x.ai/developers/models
C’est peut-être simplement pour libérer de la capacité à vendre
Mais les modèles open source comme Gemma et Qwen progressent si vite que même Anthropic voit probablement un vrai risque à long terme pour la valeur de ses propres modèles et outils
En gros, si j’étais Anthropic ou xAI, je chercherais à générer du chiffre d’affaires partout où c’est possible, puis j’attendrais de voir ce qui survit
Dans une situation aussi volatile, il n’y a aucun intérêt à viser une domination monopolistique
Ce n’est peut-être que du temps GPU auparavant gaspillé, mais Anthropic a peut-être aussi fait une offre difficile à refuser
Pure spéculation, mais si c’était une offre qu’Elon ne pouvait pas refuser, cela pourrait vouloir dire qu’Anthropic a accepté de fournir une partie de ses données d’entraînement ou de sa technologie
xAI a du mal à être perçu comme un labo sérieux
Ils obtiennent des informations internes sur le fonctionnement de Claude, ainsi qu’un énorme flux de données d’usage de Claude
Tout cela finira probablement par nourrir le développement de Grok
Après avoir essayé Claude Code pendant quelques jours, je continuais à me heurter aux limites et je voulais passer à Max, mais le parcours d’upgrade exige une vérification d’identité via Persona
Je me suis dit d’accord et j’ai essayé d’annuler l’upgrade, mais cela a aussi bloqué tout accès à Claude Code sur mon offre existante, et il était impossible de le débloquer sans terminer la vérification d’identité
Je ne le ferai jamais, et ça a été une expérience vraiment désastreuse
S’il y a un côté positif, c’est que ça m’a permis de découvrir que Deepseek est bien moins cher et d’un niveau comparable pour les tâches de rétro-ingénierie
C’est une bonne nouvelle, mais je ne reviendrai pas
Anthropic a accumulé trop d’erreurs en trop peu de temps pour que je reste
Opus a été remplacé par GPT 5.5, DeepSeek, Kimi et Qwen, et ils me permettent tous de changer facilement de modèle avec mon harnais unique
Si l’un d’eux commence à se comporter de la même manière, je peux immédiatement passer à un autre