- Arm a dévoilé un CPU AGI basé sur la plateforme Neoverse, en fournissant directement un silicium prêt pour la production destiné à une infrastructure d’IA autonome
- Ce CPU est optimisé pour des workloads d’IA parallèles dans des environnements de rack à haute densité, afin de maintenir de hautes performances monothread et une bande passante mémoire élevée même sous charge soutenue
- Des partenaires majeurs comme Meta, OpenAI et SK Telecom ont déjà commencé des déploiements commerciaux, avec des usages allant de la gestion des accélérateurs à l’orchestration d’agents dans diverses infrastructures d’IA
- Arm a présenté le 1OU Dual Node Reference Server et cherche à étendre l’écosystème via des form factors standard OCP et des outils open source
- Cette annonce marque l’entrée affirmée d’Arm sur le marché du silicium pour datacenters, en tant que fondation clé des architectures de datacenters natives pour l’IA
Annonce du CPU Arm AGI : une base en silicium pour l’ère du cloud d’IA agentique
- Le CPU Arm AGI est un nouveau produit silicium basé sur la plateforme Arm Neoverse, un CPU prêt pour la production conçu pour faire tourner l’infrastructure d’IA de nouvelle génération
- Pour la première fois en 35 ans d’histoire, Arm fournit directement un produit silicium, en allant au-delà de l’IP et du Compute Subsystem (CSS) pour proposer, de façon optionnelle, des solutions au niveau plateforme et des processeurs conçus par Arm à ses clients
- Il s’agit d’une réponse à l’évolution rapide de l’infrastructure IA et à la hausse de la demande pour des plateformes Arm déployables à grande échelle
L’essor de l’infrastructure d’IA agentique
- Les systèmes d’IA entrent à l’échelle mondiale dans une ère de fonctionnement continu et autonome
- Par le passé, la vitesse d’interaction humaine limitait la vitesse de traitement des systèmes, mais avec l’IA agentique, des agents logiciels interagissent en temps réel avec plusieurs modèles et prennent des décisions
- Cette évolution fait du CPU l’élément central de coordination de l’infrastructure moderne
- Le CPU gère les accélérateurs, la mémoire, le stockage, l’ordonnancement des workloads, les déplacements de données et coordonne simultanément de nombreux agents
- Arm Neoverse sert déjà de base à de grandes plateformes hyperscale et IA comme AWS Graviton, Google Axion, Microsoft Azure Cobalt et NVIDIA Vera
- Le CPU Arm AGI a été développé pour répondre à ces besoins mondiaux d’expansion de l’infrastructure IA
CPU Arm AGI : conçu pour l’efficacité agentique à l’échelle du rack
- Le CPU Arm AGI est conçu pour maintenir de hautes performances sur tâche unique même sous charge soutenue dans des environnements massivement parallèles
- Tous les éléments, de la fréquence de fonctionnement à l’architecture mémoire et I/O, sont optimisés pour prendre en charge des workloads d’IA parallèles dans des déploiements de racks à haute densité
- La configuration serveur de référence d’Arm adopte une conception 1OU à 2 nœuds, chaque lame intégrant 272 cœurs (2 puces, avec mémoire et I/O dédiés)
- Un rack de 36 kW refroidi par air peut accueillir 30 lames, soit 8 160 cœurs au total
- Une conception de 200 kW refroidie par liquide, en partenariat avec Supermicro, peut accueillir 336 CPU Arm AGI, soit plus de 45 000 cœurs au total
- Cette configuration offre plus de 2 fois les performances par rack par rapport aux systèmes x86 récents*
- La bande passante mémoire élevée permet de maintenir l’efficacité des threads même sous charge soutenue
- Les performances monothread basées sur les cœurs Neoverse V3 sont améliorées, ce qui accroît le débit par thread
Diffusion initiale dans l’écosystème IA
- Le CPU Arm AGI est entré en phase de déploiement commercial avec des partenaires majeurs
- Les cas d’usage incluent la gestion des accélérateurs, l’orchestration d’agents, la densification des services et applications, ainsi que l’extension du calcul réseau et data plane
- Meta participe comme partenaire principal et travaille à l’optimisation d’une infrastructure à l’échelle du gigawatt pour la famille d’applications Meta, ainsi qu’à l’intégration avec les accélérateurs MTIA
- Les premiers partenaires incluent Cerebras, Cloudflare, F5, OpenAI, Positron, Rebellions, SAP et SK Telecom
- Des systèmes commerciaux peuvent être commandés via ASRockRack, Lenovo et Supermicro
- Arm a présenté le Arm AGI CPU 1OU Dual Node Reference Server, proposé au format standard Open Compute Project (OCP) DC-MHS
- Arm prévoit de contribuer en open source à la conception du serveur, au firmware, aux spécifications d’architecture système, au framework de debug, ainsi qu’aux outils de diagnostic et de validation
- Des détails supplémentaires seront dévoilés lors de l’OCP EMEA Summit
Un nouveau chapitre pour l’infrastructure Arm
- Le lancement du CPU Arm AGI marque une nouvelle étape dans la stratégie datacenter d’Arm
- Il vise à répondre aux besoins d’une clientèle allant du cloud hyperscale aux startups IA
- Le CPU Arm AGI est le premier modèle de la gamme de produits silicium datacenter d’Arm et peut être commandé dès maintenant
- Les produits suivants sont en cours de développement avec pour objectif des performances, une scalabilité et une efficacité de tout premier plan
- En parallèle de la roadmap Arm Neoverse CSS, Arm entend permettre à l’ensemble de ses clients datacenter de conserver une architecture de plateforme commune et une compatibilité logicielle
- Plus de 50 grandes entreprises soutiennent l’expansion du silicium Arm et entrent dans une phase où elles définissent et construisent directement des architectures de datacenters natives pour l’IA
Résumé des déclarations des partenaires
-
Cerebras
- Dans la construction d’infrastructures IA axées sur l’inférence à très grande échelle, la scalabilité et l’efficacité du CPU Arm AGI jouent un rôle clé
-
Cloudflare
- Cloudflare adopte le CPU Arm AGI comme infrastructure de calcul haute performance et basse consommation afin de se développer efficacement à l’échelle de son réseau mondial
-
Meta
- Développement conjoint avec Arm pour améliorer la densité de performance des datacenters et soutenir une roadmap IA sur plusieurs générations
-
OpenAI
- Le CPU Arm AGI devrait contribuer au renforcement de la couche d’orchestration des workloads IA à grande échelle ainsi qu’à l’amélioration de l’efficacité système et de la bande passante
-
Positron
- La combinaison entre la technologie d’accélération d’inférence et l’efficacité énergétique du CPU Arm AGI devrait améliorer les performances et l’efficacité économique des datacenters
-
Rebellions
- Avec une configuration de serveur haute densité combinant CPU Arm AGI et NPU, Rebellions vise une plateforme optimisée pour les workloads d’inférence à grande échelle
-
SAP
- SAP souligne la maturité des workloads d’entreprise basés sur Arm et étend le CPU Arm AGI comme base de support à ses solutions métiers IA de nouvelle génération
-
SK Telecom
- SK Telecom construit une infrastructure de datacenter d’inférence IA à grande échelle intégrant les accélérateurs IA de Rebellions et le CPU Arm AGI, avec pour objectif de renforcer sa compétitivité AIDC
Avertissements et clause de non-responsabilité
- Ce document contient des déclarations prospectives concernant la roadmap produit d’Arm, ses performances et les plans de déploiement de ses partenaires
- Les résultats réels peuvent varier en fonction de facteurs tels que la configuration système et les workloads
- Les chiffres de performance sont des estimations internes d’Arm, fondées sur une comparaison à l’échelle du rack entre un serveur basé sur le CPU Arm AGI et un serveur x86 de catégorie équivalente*
- Tous les noms de produits et d’entreprises sont des marques ou des marques déposées de leurs propriétaires respectifs
Aucun commentaire pour le moment.