- Un grand modèle de langage qui renforce l’efficacité de l’IA et sa capacité à exécuter des tâches sur la durée
- Étendu à 744 milliards de paramètres (40 milliards actifs) par rapport à la version précédente, avec 28,5 billions de tokens de préentraînement
- Intégration de DeepSeek Sparse Attention (DSA) pour conserver les capacités de traitement de longs contextes tout en réduisant les coûts de déploiement
- Une nouvelle infrastructure d’apprentissage par renforcement asynchrone,
slime, améliore l’efficacité de l’entraînement et enregistre des performances de premier plan sur divers benchmarks
- Publié en open source, accessible sur Hugging Face, ModelScope et la plateforme Z.ai, avec compatibilité Claude Code et OpenClaw
Présentation de GLM-5
- GLM-5 est un modèle conçu pour l’ingénierie système complexe et les tâches d’agent de longue durée
- Par rapport à GLM-4.5, le nombre de paramètres passe de 355 milliards (32 milliards actifs) à 744 milliards (40 milliards actifs)
- Les données de préentraînement passent de 23 à 28,5 billions de tokens
- Il intègre DeepSeek Sparse Attention (DSA) afin de préserver le traitement des longs contextes tout en réduisant fortement les coûts de déploiement
- Introduction de l’infrastructure d’apprentissage par renforcement asynchrone
slime pour améliorer le débit et l’efficacité de l’entraînement et permettre des itérations de post-entraînement plus fines
Améliorations des performances et résultats des benchmarks
- GLM-5 affiche une amélioration globale des performances par rapport à GLM-4.7 et se rapproche du niveau de Claude Opus 4.5
- Sur l’ensemble d’évaluation interne CC-Bench-V2, il obtient d’excellents résultats en frontend, backend et sur les tâches de longue durée
- Sur Vending Bench 2, il se classe 1er parmi les modèles open source, avec un solde final de 4 432 dollars dans une simulation d’un an d’activité de distributeurs automatiques
- Il offre des performances open source de niveau mondial en raisonnement, code et tâches d’agent
- Exemples : SWE-bench Verified 77.8, BrowseComp 62.0, τ²-Bench 89.7
- Il réduit l’écart avec des modèles de premier plan comme GPT-5.2 et Gemini 3.0 Pro
Publication open source et voies d’accès
- GLM-5 est publié sous licence MIT, avec téléchargement des poids du modèle disponible sur Hugging Face et ModelScope
- Utilisable sous forme d’API via Z.ai, BigModel.cn et api.z.ai
- Compatible avec Claude Code et OpenClaw, ce qui permet une intégration dans divers environnements de développement
- La plateforme Z.ai propose un essai gratuit
Fonctions bureautiques et génération de documents
- GLM-5 vise le passage du « chat » au travail, en jouant le rôle d’outil bureautique pour les travailleurs du savoir et les ingénieurs
- Il peut convertir directement du texte ou des sources en formats .docx, .pdf, .xlsx afin de générer des documents finalisés comme des PRD, des sujets d’examen, des rapports financiers ou des menus
- L’application Z.ai propose un mode Agent prenant en charge la génération de PDF/Word/Excel et la collaboration sur plusieurs tours
Support pour les développeurs et le déploiement
- Les abonnés au GLM Coding Plan peuvent accéder progressivement à GLM-5
- Les utilisateurs du forfait Max peuvent l’activer immédiatement avec le nom de modèle
"GLM-5"
- Les requêtes GLM-5 consomment davantage de quota que GLM-4.7
- Pour les utilisateurs préférant un environnement GUI, un environnement de développement agentique Z Code est proposé
- Grâce au framework OpenClaw, GLM-5 peut être utilisé comme agent assistant personnel opérant à travers les applications et les appareils
Déploiement local et compatibilité matérielle
- GLM-5 prend en charge des frameworks d’inférence comme vLLM et SGLang, avec des instructions de déploiement fournies sur le GitHub officiel
- Il peut aussi fonctionner sur des chipsets autres que NVIDIA (Huawei Ascend, Moore Threads, Cambricon, Kunlun, MetaX, Enflame, Hygon, etc.)
- Des optimisations de kernel et la quantification du modèle permettent d’obtenir un débit raisonnable
Aucun commentaire pour le moment.