1 points par GN⁺ 1 시간 전 | 1 commentaires | Partager sur WhatsApp
  • Anthropic a annoncé augmenter les limites d’utilisation de Claude Code et de l’API Claude grâce à un partenariat avec SpaceX et à plusieurs accords récents de capacité de calcul
  • La limite d’utilisation sur 5 heures de Claude Code est doublée (plans Pro, Max, Team et Enterprise à licences par siège), et la réduction des limites aux heures de pointe est supprimée pour les comptes Pro et Max
  • Les API rate limits du modèle Claude Opus ont été fortement relevées, et cette capacité supplémentaire améliore directement la disponibilité pour les abonnés Claude Pro et Claude Max
  • Anthropic a signé un accord pour utiliser l’intégralité de la capacité de calcul du data center Colossus 1 de SpaceX, ce qui lui donnera accès d’ici un mois à plus de 300 MW de nouvelle capacité et à plus de 220 000 GPU NVIDIA
  • L’expansion de la capacité de calcul d’Anthropic s’ajoute à ses accords avec Amazon, Google et Broadcom, Microsoft et NVIDIA, ainsi que Fluidstack, tout en tenant compte de l’infrastructure locale, du coût de l’électricité et des investissements dans les communautés locales

Extension des limites d’utilisation de Claude

  • Anthropic augmente les limites d’utilisation de Claude Code et de l’API Claude grâce à son partenariat avec SpaceX et à plusieurs accords récents de capacité de calcul
  • Les trois changements entrent tous en vigueur dès le jour de l’annonce
  • La limite d’utilisation sur 5 heures de Claude Code est doublée pour les plans Pro, Max, Team et Enterprise à licences par siège
  • Pour les comptes Pro et Max, la réduction des limites aux heures de pointe de Claude Code est supprimée
  • Les API rate limits du modèle Claude Opus ont également été fortement relevées

Nouveau partenariat de capacité de calcul avec SpaceX

  • Anthropic a signé un accord pour utiliser l’intégralité de la capacité de calcul du data center Colossus 1 de SpaceX
  • Cet accord lui donnera accès d’ici un mois à plus de 300 MW de nouvelle capacité et à plus de 220 000 GPU NVIDIA
  • Cette capacité supplémentaire améliore directement la disponibilité pour les abonnés Claude Pro et Claude Max
  • Cet accord s’ajoute aux précédentes annonces majeures d’Anthropic sur l’extension de sa capacité de calcul
  • L’entraînement et l’exécution de Claude s’appuient sur plusieurs types de matériel IA, dont AWS Trainium, les TPU de Google et les GPU NVIDIA
  • Anthropic continue d’explorer des opportunités pour mettre en ligne de la capacité supplémentaire
  • Dans le cadre de l’accord avec SpaceX, Anthropic se dit également intéressée par une collaboration avec SpaceX pour développer plusieurs GW de capacité de calcul IA en orbite

Expansion internationale et infrastructure locale

  • Les clients enterprise de secteurs fortement réglementés, comme les services financiers, la santé ou le gouvernement, ont de plus en plus besoin d’infrastructures locales pour répondre aux exigences de conformité et de résidence des données
  • En conséquence, une partie de l’expansion de capacité d’Anthropic se fait à l’international
  • La collaboration récemment annoncée avec Amazon inclut de la capacité d’inférence supplémentaire en Asie et en Europe
  • Les régions où ajouter de la capacité sont choisies avec soin, en coopération avec des démocraties disposant de cadres juridiques et réglementaires capables de soutenir des investissements à grande échelle
  • La sécurité des chaînes d’approvisionnement en matériel, réseau et installations nécessaires à cette capacité de calcul constitue aussi un critère important

Coût de l’électricité et investissement dans les communautés locales

  • Anthropic a récemment annoncé son engagement à prendre en charge toute hausse des tarifs d’électricité pour les consommateurs qui serait causée par ses data centers aux États-Unis
  • Dans le cadre de son expansion internationale, l’entreprise étudie la possibilité d’étendre cet engagement à de nouvelles juridictions
  • Elle cherche également à collaborer avec des responsables locaux afin de réinvestir dans les communautés où ses installations sont situées

1 commentaires

 
GN⁺ 1 시간 전
Avis sur Hacker News
  • L’économie de l’IA semble aller dans cette direction : l’inférence devient moins chère, et avec l’arrivée sur le marché d’accélérateurs spécialisés, la concurrence sur les prix commence
    En revanche, l’entraînement reste coûteux, donc Anthropic/OpenAI finiront par se tourner vers l’activité d’entraînement
    Les modèles deviennent des actifs louables ou achetables, et les utilisateurs les feront tourner sur du matériel d’inférence, loueront ce matériel ou le posséderont
    Ou bien ils paieront une prime à une entreprise qui se charge de tout cela à leur place
  • L’ampleur de 300 mégawatts de capacité nouvelle et de plus de 220 000 GPU NVIDIA est absolument délirante
    Je me demande s’il existe un billet de blog ou autre qui explique quelle infrastructure est utilisée, ne serait-ce que pour l’inférence des derniers modèles comme Opus
    J’imagine que c’est secret, mais si on peut utiliser directement les modèles sur AWS Bedrock, ça ne donne peut-être pas quand même quelques indices ?
    • Ça visait probablement l’infrastructure de calcul, mais l’infrastructure électrique est intéressante aussi
      Les datacenters fonctionnent parfois de manière absurde parce que la vitesse de montée en charge opérationnelle compte plus que le coût
      Il y a des régulations des compagnies d’électricité, ainsi que des contraintes comme les taux de rampe pour ne pas déstabiliser le réseau, et certains datacenters les enfreignent fortement
      Comme la charge varie beaucoup, ils alimentent ça avec des générateurs à gaz naturel derrière le compteur, et des arbres censés tenir 7 ans ne durent plus que 10 mois à cause des cycles répétés de démarrage et d’arrêt
      https://www.volts.wtf/p/doing-data-centers-the-not-dumb-way
      Côté calcul, NVIDIA a une architecture de référence standard
      https://www.nvidia.com/en-us/technologies/enterprise-referen...
      Je n’ai pas regardé en détail, mais il doit y avoir du réseau inter-GPU Mellanox, du gros code sur mesure pour répartir les tenseurs sur les GPU, et du code pour déplacer les activations entre nœuds GPU
    • Ce n’est pas exactement comme ça que ça fonctionne
      Anthropic héberge ses modèles dans AWS Bedrock comme service managé, et les clients appellent le LLM comme ils appelleraient n’importe quelle autre API
      On ne voit pas quelle infrastructure AWS traite réellement ces requêtes API
  • Qu’Anthropic loue le datacenter qu’Elon a construit pour Grok, ça ressemble à un rebondissement qu’on ne pourrait pas inventer
    • Du point de vue de SpaceX, c’est plutôt malin
      Ils transforment en source de revenus assez importante avant l’IPO un actif créé pour Grok, ce gouffre à cash
    • Cette fusion m’a semblé être une façon assez évidente de satisfaire les investisseurs tout en mettant discrètement fin à xAI
      Et en même temps, cela sert aussi à refiler la dette de Twitter au public, donc les comptables ont clairement du talent
    • C’est un rebondissement qui a du sens pour les deux entreprises
      Anthropic obtient la puissance de calcul dont elle a désespérément besoin pour continuer à croître, Elon loue de la capacité que xAI ne parvenait pas à utiliser correctement faute de demande pour Grok, et SpaceX peut afficher du chiffre d’affaires dans ses comptes en vue de l’IPO
      La phrase « nous ajouterons prudemment de la capacité en coopération avec des démocraties dotées de cadres juridiques et réglementaires soutenant des investissements de cette ampleur » se traduit en langage réel par quelque chose de proche de « nous ferons passer le profit avant tout »
      Elon est une figure d’extrême droite qui soutient Trump, et Trump n’est pas particulièrement démocratique non plus, mais cela veut dire que nous avons vraiment besoin de plus d’argent
      On dirait aussi qu’ils essaient de faire oublier que xAI a reçu des financements de gouvernements non démocratiques du Moyen-Orient, et qu’Anthropic achèterait probablement même de la capacité de calcul chinoise si cela permettait de vendre ses modèles
  • La partie en moins d’un mois est celle qui me retourne le plus le cerveau
    Un datacenter n’est pas du matériel plug-and-play doté de spécifications bien écrites et d’interfaces standardisées à l’international
  • En lisant la phrase « dans le cadre de cet accord, nous avons exprimé notre intérêt à collaborer avec SpaceX pour développer plusieurs gigawatts de capacité de calcul IA en orbite », soit Anthropic prend ce projet spatial plus au sérieux que le grand public, soit publier cette phrase faisait partie des conditions pour obtenir de la capacité de calcul
    • J’adhère à 100 % à l’idée que publier cette phrase faisait partie des conditions pour obtenir du calcul
    • Anthropic a besoin de toute la capacité de calcul possible
      Si Elon veut construire un datacenter orbital, Anthropic sera ravi d’y faire tourner ses modèles
      Il n’y a pas vraiment lieu de douter qu’Elon puisse construire un datacenter orbital ; la vraie question, c’est la viabilité économique par rapport à une solution terrestre
    • Je ne pense pas que l’informatique spatiale va marcher, mais on peut évidemment dire « si vous nous proposez ça plus tard à bon prix, on l’achètera volontiers »
      Si ça fonctionne, tant mieux ; sinon, tant pis
    • Ça ressemble juste à de la flagornerie envers un puissant
      Dans le cadre d’un accord pour obtenir l’accès à des datacenters terrestres, ils font passer un calcul orbital manifestement fantaisiste pour quelque chose de plus crédible que ça ne l’est
      Je peux imaginer que ce genre de chose existe un jour, mais comme le FSD, ça ne semble absolument pas proche de devenir réel
      Le coût de dire ça est pratiquement nul, et plus tard ils pourront toujours expliquer qu’ils ont perdu l’intérêt
      S’il y a un coût, c’est à peine un peu de réputation
    • La plupart des CEO de la big tech ont déjà tenu ce genre de discours
  • Le datacenter Colossus 1 utilise de l’électricité illégale, pollue l’air d’une zone pauvre près de Memphis et pourrait même polluer l’eau
    En ajoutant de la demande sur le réseau, il risque aussi davantage de provoquer de grandes coupures pendant des épisodes météorologiques extrêmes, mettant encore plus les habitants en danger
    https://en.wikipedia.org/wiki/Colossus_(supercomputer)#Envir...
    On peut donc ajouter Anthropic à la liste des entreprises qui parlent beaucoup de sécurité mais font en réalité passer le profit avant la sécurité
    • Le terme illégal me paraît fort ici
      Même dans le lien Wikipédia inclus, il est dit qu’il peut y avoir des subtilités autour des permis, mais je n’ai rien vu qui permette d’affirmer que l’électricité est « illégale »
    • Je ne vois pas comment un datacenter polluerait l’eau
      Il ne fabrique pas de produits chimiques et ne fait rien de ce genre
    • Toutes les accusations publiées ne sont pas vraies
      Il faut être très sceptique face à ce type d’allégations, et surtout quand une entreprise riche est impliquée, parce que des affirmations de préjudice simplement « plausibles et persistantes » peuvent suffire à entraîner des procès ou une pression pour transiger
    • En cherchant un peu, j’ai l’impression que la plupart des datacenters paient très peu d’impôts locaux sur le chiffre d’affaires généré par leur activité
      Si c’est vrai, c’est une énorme niche fiscale, et il n’est pas surprenant que l’investissement en capital dans les datacenters soit si élevé
      [0] https://www.datacenterknowledge.com/regulations/how-are-data...
  • À moins que la limite hebdomadaire ne soit elle aussi doublée, doubler la limitation de débit sur 5 heures ne relève que du marketing
    Cela signifie simplement qu’on peut atteindre la limite hebdomadaire en 3 jours au lieu de 5
    • Je n’ai jamais même approché la limite hebdomadaire, mais je me suis souvent heurté à la limite horaire
    • Depuis que je suis passé à l’offre à 100 $, je ne pense avoir atteint aucune des deux limites une seule fois au cours des 5 derniers mois
      Les semaines où je l’utilise beaucoup, je m’en sers de manière soutenue plus de 6 heures par jour
      En revanche, je suis toujours assez strict pour garder les sessions sous les 200 000 à 250 000 tokens
    • Personnellement, j’utilise l’abonnement de base à Claude Code, et je m’en sers le soir en semaine ou le week-end pour coder 1 à 2 heures afin de me changer les idées
      Je fais 3 à 5 sessions par semaine
      Dès que la tâche est un peu plus complexe, j’épuise vite la fenêtre de 5 heures, ce qui est frustrant, mais je n’ai encore jamais atteint la limite hebdomadaire
      J’imagine qu’il y a pas mal de gens dans mon cas
    • Oui, la vraie contrainte, c’est la limite hebdomadaire
      Si on pousse vraiment, on peut facilement consommer en une seule journée toute la limite hebdomadaire de l’offre Max à 200 $ par mois
    • Avec Opus 4.6, que j’utilise encore obstinément, mon flux de travail me permet de brûler environ 10 % de mon quota hebdomadaire dans une fenêtre de 5 heures
      Dans ma tête, je calcule mon quota hebdomadaire à l’échelle de la journée, soit environ 14 % par jour, et j’essaie donc d’en utiliser moins en début de semaine pour me permettre d’être plus libre ensuite
      Au bout du compte, les deux derniers jours, je me demande comment écouler le quota que j’ai gardé en réserve
      La fenêtre de 5 heures rend ça encore plus difficile, et le dernier jour de la semaine, je finis par essayer d’injecter 10 % à chaque fenêtre de 5 heures pendant toute ma période d’éveil, ce que je déteste vraiment
      Je veux travailler pendant mes heures les plus productives, pas caler mon travail sur des fenêtres horaires absurdes
      Je n’ai pas envie de penser des choses comme : « Je vais probablement utiliser Claude surtout vers 11 h, donc je devrais envoyer un message idiot à Haiku à 7 h 30 pour démarrer la fenêtre de 5 heures et pouvoir repasser dessus à 12 h 30 »
      Donc oui, ce changement est bienvenu, mais c’est juste une légère atténuation d’un problème qu’ils ont eux-mêmes créé, tout en faisant comme s’ils rendaient service aux utilisateurs
      Je comprends l’intention de réduire l’usage aux heures de pointe, mais je déteste quand même ça
  • Ils disent qu’ils vont doubler la limitation de débit sur 5 heures de Claude Code pour les offres Pro, Max, Team et Enterprise à facturation par siège, supprimer la réduction des limites aux heures de pointe pour Pro et Max, et augmenter fortement les limites de débit API du modèle Claude Opus
    Au final, on dirait qu’Elon a renoncé à xAI pour vendre de la capacité de calcul
    • Je ne sais pas si c’est lié au même datacenter, mais cette annonce est arrivée seulement quelques heures après que plusieurs modèles Grok encore récents ont été abandonnés après une courte notice
      Grok 4.1 Fast était le moyen le moins cher de faire de la recherche sur X, même moins cher que l’API X, mais il a disparu le 15 mai
      https://docs.x.ai/developers/models
      C’est peut-être simplement pour libérer de la capacité à vendre
    • On ne peut pas encore affirmer qu’Elon a abandonné xAI
      Mais les modèles open source comme Gemma et Qwen progressent si vite que même Anthropic voit probablement un vrai risque à long terme pour la valeur de ses propres modèles et outils
      En gros, si j’étais Anthropic ou xAI, je chercherais à générer du chiffre d’affaires partout où c’est possible, puis j’attendrais de voir ce qui survit
      Dans une situation aussi volatile, il n’y a aucun intérêt à viser une domination monopolistique
    • Les détails sont secrets
      Ce n’est peut-être que du temps GPU auparavant gaspillé, mais Anthropic a peut-être aussi fait une offre difficile à refuser
      Pure spéculation, mais si c’était une offre qu’Elon ne pouvait pas refuser, cela pourrait vouloir dire qu’Anthropic a accepté de fournir une partie de ses données d’entraînement ou de sa technologie
    • Honnêtement, ce n’est peut-être pas une mauvaise idée
      xAI a du mal à être perçu comme un labo sérieux
    • Je ne parlerais pas d’abandon
      Ils obtiennent des informations internes sur le fonctionnement de Claude, ainsi qu’un énorme flux de données d’usage de Claude
      Tout cela finira probablement par nourrir le développement de Grok
  • J’aurais aimé apprendre cette nouvelle il y a deux jours
    Après avoir essayé Claude Code pendant quelques jours, je continuais à me heurter aux limites et je voulais passer à Max, mais le parcours d’upgrade exige une vérification d’identité via Persona
    Je me suis dit d’accord et j’ai essayé d’annuler l’upgrade, mais cela a aussi bloqué tout accès à Claude Code sur mon offre existante, et il était impossible de le débloquer sans terminer la vérification d’identité
    Je ne le ferai jamais, et ça a été une expérience vraiment désastreuse
    S’il y a un côté positif, c’est que ça m’a permis de découvrir que Deepseek est bien moins cher et d’un niveau comparable pour les tâches de rétro-ingénierie
  • À cause des limites, j’ai fini par résilier l’abonnement et j’ai rendu tout mon flux de travail complètement agnostique vis-à-vis du modèle avec pi
    C’est une bonne nouvelle, mais je ne reviendrai pas
    Anthropic a accumulé trop d’erreurs en trop peu de temps pour que je reste
    Opus a été remplacé par GPT 5.5, DeepSeek, Kimi et Qwen, et ils me permettent tous de changer facilement de modèle avec mon harnais unique
    Si l’un d’eux commence à se comporter de la même manière, je peux immédiatement passer à un autre