1 points par GN⁺ 8 일 전 | 1 commentaires | Partager sur WhatsApp
  • Avec un investissement supplémentaire d’Amazon, accord pour dépenser plus de 100 milliards de dollars sur AWS au cours des 10 prochaines années, avec une structure de transaction combinant infrastructure cloud et financement
  • En contrepartie, obtention de jusqu’à 5 GW de nouvelle capacité de calcul pour l’entraînement et l’exploitation de Claude, l’élément clé n’étant pas seulement l’investissement en numéraire mais aussi un droit d’usage réel de l’infrastructure
  • Le montant total investi par Amazon atteint désormais 13 milliards de dollars, et cette structure ressemble à l’accord d’investissement conclu avec OpenAI il y a deux mois
  • Au cœur de l’opération figurent les puces personnalisées d’Amazon, avec un périmètre couvrant de Trainium2 à Trainium4 dans les gammes Graviton et Trainium
  • Anthropic a aussi obtenu des options d’achat de capacité sur les futures puces à venir, et cette annonce alimente les spéculations sur une nouvelle levée de fonds ainsi que des informations évoquant une valorisation supérieure à 80 milliards de dollars

Vue d’ensemble de l’accord

  • Accord sur un investissement supplémentaire de 5 milliards de dollars d’Amazon, portant le total investi par Amazon dans Anthropic à 13 milliards de dollars
  • L’accord inclut un engagement de dépenses sur AWS de la part d’Anthropic, avec plus de 100 milliards de dollars à dépenser sur AWS au cours des 10 prochaines années
    • En contrepartie, Anthropic obtient jusqu’à 5 GW de nouvelle capacité de calcul pour l’entraînement et l’exploitation de Claude
  • Cet accord adopte une structure similaire à celle d’un autre investissement récent d’Amazon dans l’IA
    • Il ne s’agit pas seulement d’un investissement en numéraire, la fourniture de services d’infrastructure cloud faisant aussi partie de la structure de l’opération

Comparaison avec l’accord OpenAI

  • Présence d’une similarité structurelle avec l’accord conclu par Amazon avec OpenAI il y a deux mois
    • Amazon a participé à un tour de financement de 110 milliards de dollars
    • Dont 50 milliards de dollars apportés par Amazon
    • Dans ce tour, la valorisation pre-money du développeur de ChatGPT a atteint 730 milliards de dollars
  • L’accord avec OpenAI comprenait lui aussi en partie une fourniture d’infrastructure au-delà du simple cash

Infrastructures et puces clés

  • Les puces personnalisées d’Amazon sont au centre de cette opération
    • Graviton est un CPU basse consommation
    • Trainium est une puce accélératrice IA en concurrence avec Nvidia
  • Le périmètre de l’accord avec Anthropic couvre de Trainium2 à Trainium4
    • Trainium4 n’est pas encore disponible
    • La puce la plus récente, Trainium3, sera lancée en décembre
  • Anthropic a également obtenu des options d’achat de capacité sur les futures puces d’Amazon
    • Cela inclut le droit d’acheter cette capacité lorsque de nouvelles puces seront disponibles

Possibilité d’une levée de fonds supplémentaire

  • Il est évoqué que cette annonce pourrait préfigurer un nouveau tour de financement pour Anthropic
  • Des informations indiquent que des sociétés de capital-risque ont proposé d’investir dans Anthropic
    • Ces informations citent une valorisation potentielle de plus de 80 milliards de dollars pour l’opération

1 commentaires

 
GN⁺ 8 일 전
Avis sur Hacker News
  • Vu la situation actuelle, j’ai l’impression que l’illusion de rentabilité touche presque à sa fin. Je me demande si les revenus sont vraiment à la hauteur des attentes des investisseurs, et même les projets d’IPO d’Anthropic et d’OpenAI ressemblent à une manière de gagner du temps. Le coût réel des tokens commence à apparaître, et le goulot d’étranglement côté compute est sévère. En voyant le tarif des tokens d’Opus 4.7, 7,5 fois plus élevé, la charge devient plus lourde, et comme les modèles open sont bien moins chers, j’ai l’impression que plus les entreprises deviendront sensibles aux coûts, plus les deux grands seront vulnérables. Je me demande aussi si les datacenters et l’alimentation électrique pourront vraiment croître assez vite, ou si tout cela n’est qu’un énorme all-in pour atteindre l’AGI en premier. Surtout, les performances des modèles semblent stagner, et sur les tâches complexes j’ai parfois même l’impression d’une baisse de productivité
    • Je pense que beaucoup d’entreprises n’auraient jamais dû avoir besoin d’être sur les marchés publics. Cette culture qui consiste à refaire des licenciements massifs dès qu’un trimestre est mauvais, juste pour signaler qu’on arrête l’hémorragie, me paraît à la fois nocive et ridicule. Les entreprises où j’ai travaillé vivaient aussi leur âge d’or quand elles étaient encore non cotées, puis finissaient par être vendues à une grande société cotée une fois confrontées aux limites économiques. J’ai l’impression qu’un marché alternatif, où seuls les investissements de long terme seraient possibles et où l’on ne pourrait pas retirer son argent pendant plusieurs années, serait plus sain
    • Du point de vue du développement logiciel, j’ai l’impression que les modèles actuels justifient largement leur coût par token. Ce mouvement me semble moins être un signal de démesure qu’une décision visant à sécuriser l’offre à l’avance en anticipant la demande. Je le comprends un peu comme une compagnie aérienne qui préachète son carburant futur, ou Apple qui verrouille des volumes de DRAM
    • Je ne sais pas à quel point ce pessimisme colle à la réalité. Les entreprises du Fortune 500 ont déjà dépassé le simple stade de l’expérimentation avec des sociétés comme Anthropic, et elles se dépêchent maintenant de cadrer le déploiement à l’échelle de toute l’organisation ainsi que la gouvernance. Il y a bien eu une surchauffe, mais j’ai l’impression que la proposition de valeur devient de plus en plus concrète. Certaines entreprises IA ont peut-être trop promis en dépenses, mais Anthropic me semblait aller vers la rentabilité relativement vite
    • Je ne suis pas totalement en désaccord, mais j’ai quelques contre-arguments. D’abord, je trouve crédible l’idée selon laquelle les fournisseurs de modèles sont déjà rentables si l’on regarde uniquement le coût du service des tokens d’inférence. Les pertes viendraient plutôt de l’entraînement des modèles de nouvelle génération. Les modèles open ont encore un écart de performances assez important, donc comme les tokens restent relativement bon marché alors que le coût des hallucinations est élevé, je n’ai pas vraiment eu l’impression d’une forte adoption des modèles open dans les agents de code. Je n’ai pas non plus de certitude sur l’économie globale de l’IA, mais la valeur de sociétés comme Meta ou Microsoft a déjà un peu reculé, et les investisseurs semblent aussi se méfier dans une certaine mesure de la surévaluation. Les signaux d’alerte ne sont pas parfaitement clairs, mais les bénéfices des entreprises paraissent encore solides. Je me suis appuyé sur cette analyse du coût des tokens chez Anthropic et sur cet article de The Economist sur les bénéfices des entreprises
    • J’ai aussi l’impression que c’est la bonne direction. Concrètement, on sent déjà que les services commencent à resserrer les limites d’usage. J’utilise Gemini Pro grâce à mon forfait Google 5 To, et côté IDE j’utilise aussi Github Copilot Pro, mais récemment Gemini atteint ses limites bien plus vite, au point que je vois déjà au bout de quelques heures un message m’indiquant que j’ai épuisé mes tokens Pro. Avant, je pouvais l’utiliser pendant la majeure partie de la journée, alors que maintenant je me retrouve bloqué dès la matinée. Du coup, je réfléchis sérieusement à acheter cette année un PC avec un gros GPU pour passer à une exécution locale. Vu la tendance actuelle, les coûts me semblent bien plus susceptibles d’augmenter fortement que de baisser
  • S’il faut dépenser 100 Md$, je me demande s’il est vraiment pertinent de continuer à utiliser un cloud tiers. Même si Amazon propose d’excellentes conditions, à cette échelle j’aurais l’impression qu’on finit forcément par vouloir posséder sa propre stack. Surtout dans un domaine aussi compétitif, où les marges finiront forcément par devenir importantes. En ce moment, j’ai l’impression que les hyperscalers lèvent autant de capitaux que possible sur la base de perspectives bien trop optimistes, et que le sommet de ce cycle n’est peut-être plus très loin, ou a déjà été atteint
    • Le problème, c’est que l’alternative consiste au final à construire soi-même des datacenters. Il en faudrait peut-être 2 aux États-Unis, 2 en Europe, 2 en Asie, 1 en Afrique et 1 en Amérique latine, et plus de la moitié devraient être prêtes à temps. Or c’est justement ce “à temps” qui est difficile. Les autorisations des collectivités locales, les négociations avec les compagnies d’électricité, les variables politiques, les contrats militaires… tout cela peut faire capoter un permis. Et il faut aussi approvisionner CPU, GPU, mémoire et équipements réseau, sans parler du fait que les délais sur les transformateurs électriques industriels dépassent 5 ans. Les installations de traitement de l’eau ne peuvent pas non plus avancer sans permis. Dans ce contexte, ni AWS ni Google ne vont accorder de traitement de faveur à un client dont ils voient qu’il envisage de partir. L’IA et les LLM sont déjà un environnement concurrentiel complexe et fragile ; y ajouter en parallèle la construction de datacenters ne ressemble pas à une diversification mais plutôt à une condamnation à mort
    • Pour une entreprise qui n’a absolument aucune expérience de construction de datacenters, passer directement au statut d’opérateur de compute à 100 Md$ ressemble à un objectif sur plusieurs décennies et à très haut risque
    • Je vois ce type d’engagement comme un moyen de transférer une partie du risque vers des fournisseurs d’infrastructure comme Amazon ou Oracle. Si Anthropic ou OpenAI n’atteignent pas leurs prévisions, l’infrastructure provider peut toujours vendre ces actifs à d’autres clients ou les utiliser lui-même. À l’inverse, si la demande dépasse les attentes, davantage de capitaux de VC pourront arriver pour évincer les concurrents, même à un coût plus élevé. Si l’entreprise construisait elle-même et se trompait dans ses prévisions de demande, l’erreur coûterait bien plus cher. Au final, je comprends donc cela comme un partage du risque
    • À mon avis, l’article donne déjà la réponse. Le contrat d’Anthropic inclut même le Trainium4, qui n’est pas encore lancé, ainsi qu’une option d’achat de capacité sur les futures générations de puces Amazon. Autrement dit, il ne s’agit pas seulement de sécuriser l’immédiat, mais de réserver à l’avance un droit d’accès sur toute la future feuille de route des puces
    • J’avais vu autrefois sur Facebook un schéma montrant l’argent tourner entre quelques grandes entreprises d’IA, et ça m’avait vraiment choqué. Ça donnait presque une impression de circuit fermé de capitaux, à la limite de l’arnaque
  • Je me demande quelles sont exactement les attentes vis-à-vis des labos d’IA. De mon point de vue, leurs produits semblent déjà presque commoditisés, et il existe aussi beaucoup de concurrents open source solides. À terme, il me semble que justifier la prime attachée à ces modèles deviendra de plus en plus difficile
    • J’ai l’impression que toute cette situation dite du Mythos, qu’elle soit réelle ou exagérée, pointe vers l’endgame. Si l’on obtient des modèles assez puissants pour avoir un impact majeur sur le monde, on risque de ne plus réfléchir à la manière de les vendre aux consommateurs, mais plutôt à les utiliser pour dominer directement l’économie, ou à craindre leur nationalisation par un État. S’il existe une machine capable de tout automatiser, pourquoi vendrait-on encore l’accès ?
    • Je pense qu’il y a de fortes chances que les modèles open source rattrapent complètement leur retard d’ici 1 à 2 ans. Les produits sont des commodités, et les modèles aussi. Pour l’instant, le goulot d’étranglement est surtout la difficulté à obtenir suffisamment de cœurs GPU pour l’inférence à grande échelle. Au final, ce qu’il faut, c’est probablement une plateforme capable de créer du lock-in, et je ne vois pas vraiment pourquoi elle ne pourrait pas reposer sur des modèles open source
    • J’ai l’impression que, dans la plupart des grandes entreprises tech aujourd’hui, les agents de code sont en train d’être déployés de manière frontale. Dans certains endroits, il n’y a presque pas de limite de tokens : tant qu’on peut justifier les résultats, on laisse les équipes s’en servir librement. Les entreprises intègrent ces outils dans leurs workflows et commencent à documenter leurs processus internes autour d’outils spécifiques. Une fois que ça se met en route, ça se réplique vite à l’échelle de toute l’organisation. Si Anthropic a atteint 30 Md$ de revenus, et si tout cela n’est encore que le début du déploiement massif du coding, il me semble difficile d’ignorer ce chiffre
    • À mes yeux, ces modèles sont à la fois des commodités et des armes cyber. Les États en compétition militaire voudront obtenir de meilleures capacités cyber et de renseignement grâce à une IA plus performante, et chercheront donc sans doute à faire se concurrencer plusieurs entreprises d’IA de défense plutôt que d’en choisir une seule. Comme les États-Unis vendaient autrefois des armes à plusieurs pays, il est possible qu’à l’avenir la Chine, les États-Unis ou la France vendent des capacités cyber basées sur l’IA. Les pays, pour des raisons de sécurité, ne feront pas non plus totalement confiance au cloud d’autrui ; ils pourraient donc avoir besoin de leurs propres datacenters pour faire tourner un cluster de fournisseurs privilégiés
    • Je ne pense qu’aucune entreprise dispose aujourd’hui d’un moat. J’ai même l’impression qu’OpenAI a déjà perdu son avance, et qu’à ce stade personne ne gagne vraiment. Tout cela ressemble au final à un jeu du poulet où l’on brûle des GPU qui ne dureront même pas très longtemps. Pour référence, j’avais regardé cette image comparative
  • J’ai l’impression que la course au financement va plus vite encore que l’arrivée, dans quelques années, de modèles locaux grand public suffisamment bons. La demande explose aujourd’hui, mais si l’inférence on-device s’impose, la demande pourrait s’effondrer d’un coup à un moment donné, ce qui donne à l’ensemble un côté château de cartes
    • J’ai l’impression de vivre déjà un peu ce futur. Avec un framework d’exécution correct, de la gestion de contexte, une mémoire de type Unix, ainsi que des mécanismes de recherche et d’accès au web, un modèle local peut pratiquement être utilisé au même niveau qu’un modèle de pointe. Il peut même être plus rapide parfois. Tant que les entreprises d’IA continuent à mener le marché avec des tarifs subventionnés plus favorables que leur coût réel, je paierai encore pour leurs services, mais au final j’ai l’impression qu’on peut utiliser leurs propres offres pour amorcer leur chute. Personnellement, je resterai longtemps partisan d’un monde où je fais tourner mon logiciel sur mon ordinateur
    • J’attends ce moment moi aussi. Peut-être qu’une combinaison entre un moteur de LLM de code sur matériel sur mesure haute performance comme taalas et un agent de code open source pourrait être la solution. Si le prix est comparable à celui d’une carte graphique haut de gamme, cela pourrait finir par être rentable avec le temps. J’ai l’impression de revoir le basculement historique des mainframes IBM vers le PC
    • Les modèles grand public sont déjà plutôt bons, et le vrai goulot d’étranglement de l’inférence locale reste à mon avis le matériel. Les petits modèles tournent sur presque n’importe quel appareil, mais dès qu’on veut plus de connaissances et un contexte plus large, les exigences augmentent brutalement
  • Je me demandais si, comme dans la structure qu’on avait vue entre Nvidia et OpenAI, on n’était pas finalement proche d’un cycle d’argent et de dette
    • Dans le cas de Nvidia et OpenAI, il y avait réellement des cartes graphiques qui changeaient de main, et le vendor financing est en soi une pratique courante, un peu comme lorsqu’un concessionnaire vend une voiture avec un crédit attaché
    • Il me semble aussi qu’Oracle s’est retrouvé impliqué là-dedans avant de subir ensuite un coup dur
    • Le développement de puces, pour rester à la frontière technologique, exige de toute façon des économies d’échelle. Dans cette optique, soutenir la demande par des mécanismes financiers pour créer cette échelle me paraît moins relever du Ponzi que d’une structure rationnelle. Anthropic obtient l’accès à une ressource de compute rare, et Amazon récupère une demande et des retours terrain qui justifient l’augmentation de sa R&D et de son capex
  • Je ne suis pas économiste, mais je me demandais comment une structure où Amazon donne 5 Md$ pour ensuite récupérer 20 fois cette somme plus tard pouvait tenir debout
    • Les 5 Md$ ne sont pas simplement donnés : c’est un investissement en capital, accompagné d’un engagement de dépense. Si l’engagement porte sur 100 Md$ d’usage sur 10 ans, les 5 Md$ peuvent être consommés en moins de 3 ans, voire plus vite. Dans mon interprétation, Amazon fournit des crédits d’usage en échange d’une participation au capital, et si Anthropic réussit, c’est une bonne affaire pour Amazon. En cas d’échec, cela peut être une perte côté investissement, mais Amazon sécurise tout de même environ 5 Md$ de chiffre d’affaires côté opérations, ainsi qu’un argument pour augmenter ses capacités. Pour Anthropic, c’est une manière de gagner du temps pour survivre plus longtemps sans devoir immédiatement faire coller les chiffres. Au fond, l’idée semble être qu’utiliser l’argent d’Amazon pour accroître la capacité d’Amazon peut aller plus vite que construire sa propre capacité avec l’argent de quelqu’un d’autre
    • Le point clé, c’est qu’il faut du compute à grande échelle tout de suite. Amazon a annoncé investir 5 Md$ immédiatement, avec la possibilité d’ajouter jusqu’à 20 Md$ ensuite, en plus des 8 Md$ déjà investis. Selon ce contrat, une capacité significative serait ajoutée dans les 3 mois et le total approcherait 1 GW avant la fin de l’année. On peut le vérifier dans l’annonce d’Anthropic
    • En pratique, il est plus simple de voir cela comme : recevoir 5 Md$ maintenant, puis dépenser de toute façon environ 10 Md$ par an en coûts de compute qu’il aurait fallu payer dans tous les cas
    • Ce n’est pas un bénéfice pur de 100 Md$, car Amazon a lui aussi des coûts opérationnels : il s’agit d’un échange de services. Anthropic aurait de toute manière dû dépenser cet argent pour faire tourner son activité ; cela ressemble donc moins à une remise future qu’à une sorte d’avance de trésorerie aujourd’hui contre paiement au tarif normal plus tard
    • C’est aussi comme ça que je le comprends. Puisque les dépenses d’infrastructure devaient de toute façon avoir lieu, Amazon utilise 5 Md$ pour lier contractuellement ces dépenses à AWS
  • Au fond, cela m’a fait penser à une blague disant qu’Anthropic a simplement obtenu une énorme version entreprise du cashback de 5 % de la carte Prime Visa. On a presque l’impression que les entreprises d’IA ne sont pas si différentes de nous après tout
  • Vu la situation géopolitique actuelle, je m’attends à ce que la capacité de production des puces mémoire ainsi que de divers CPU et GPU puisse diminuer. Certaines actualités que j’ai vues sur le Japon, la Corée et Singapour ont renforcé cette inquiétude. Si cette anticipation est correcte, le coût de construction de nouveaux datacenters pourrait augmenter brutalement, ce qui m’inquiète
  • Je m’inquiète aussi qu’une fois cette folie terminée, ce soit encore aux contribuables de renflouer ce type d’entreprises
    • Cela n’arrivera que si nous laissons faire. Au final, la réponse reste le vote