- La série Mistral 3 est une nouvelle génération de modèles d’IA open source composée de modèles compacts de 3B, 8B et 14B et de Mistral Large 3, avec 41B paramètres actifs et 675B paramètres au total
- Tous les modèles sont publiés sous licence Apache 2.0, ce qui permet aux développeurs et aux entreprises de les utiliser et de les personnaliser librement
- Mistral Large 3 adopte une architecture Mixture-of-Experts entraînée sur 3 000 GPU NVIDIA H200, et atteint des performances de pointe en conversations multilingues et en compréhension d’images
- Ministral 3 est conçu pour les environnements edge, avec d’excellentes performances rapportées au coût, et la variante reasoning du modèle a atteint 85 % de précision à l’AIME ‘25
- Mistral 3 est disponible immédiatement sur Mistral AI Studio, Hugging Face, AWS, Azure, ainsi que d’autres plateformes clés, avec pour objectif d’étendre l’écosystème open AI
Aperçu de Mistral 3
- Mistral 3 est la nouvelle génération de modèles de Mistral AI, composée de modèles denses compacts (3B, 8B, 14B) et du grand modèle sparse Mistral Large 3
- Mistral Large 3 est une architecture Mixture-of-Experts (MoE) avec 41B de paramètres actifs et 675B de paramètres au total
- Tous les modèles sont publiés sous licence Apache 2.0, ce qui les rend disponibles pour la communauté open source
- Les modèles sont fournis dans différents formats de compression, améliorant l’accessibilité via l’intelligence distribuée
- La famille Ministral est considérée comme ayant le meilleur rapport qualité-prix parmi les modèles OSS
Mistral Large 3 : le modèle open weight le plus performant
- Mistral Large 3 est un modèle à poids ouverts entraîné from scratch sur 3 000 GPU NVIDIA H200
- C’est le premier modèle Mixture-of-Experts depuis la série Mixtral, reflétant les avancées préalables de pré-entraînement de Mistral
- Après entraînement, il affiche des performances équivalentes aux meilleurs modèles à poids ouverts sur les prompts standards, et de très bons résultats en compréhension d’images et en conversation multilingue hors anglais
- Sur le classement LMArena, il est 2e parmi les modèles OSS non-reasoning et 6e parmi tous les modèles OSS
- Les versions base et instruct tuning sont publiées ; la version reasoning sortira prochainement
Collaboration avec NVIDIA, vLLM et Red Hat
- Mistral Large 3 est plus facilement accessible à la communauté open source grâce à la collaboration avec vLLM et Red Hat
- Des checkpoints au format NVFP4 réalisés avec llm-compressor sont fournis
- Exécution efficace via vLLM sur les systèmes Blackwell NVL72, 8×A100 et 8×H100
- La collaboration avec NVIDIA permet la prise en charge de l’inférence à faible précision dans TensorRT-LLM, SGLang, etc.
- Intégration des noyaux Blackwell Attention et MoE, du serving prefill/decode séparé et du speculative decoding
- Déploiement optimisé également sur les environnements edge, notamment DGX Spark, RTX PC et les appareils Jetson
Ministral 3 : modèles intelligents pour l’edge
- La série Ministral 3, conçue pour les environnements edge et locaux, est disponible en trois tailles : 3B, 8B et 14B
- Chaque modèle est publié en trois variantes : base, instruct et reasoning
- Toutes les variantes incluent la compréhension d’images et le traitement multilingue
- C’est le meilleur OSS en termes de rapport qualité-prix
- Le modèle instruct atteint des performances équivalentes ou supérieures à celles de ses concurrents tout en réduisant le nombre de tokens d’environ dix fois
- La variante reasoning se distingue dans les environnements centrés sur la précision, et le modèle 14B a atteint 85 % de précision à l’AIME ‘25
Déploiement et accessibilité
- Mistral 3 est disponible immédiatement sur les plateformes suivantes :
- Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face, Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI, Together AI
- Disponible prochainement aussi sur NVIDIA NIM et AWS SageMaker
- Un service d’entraînement de modèles personnalisés pour les entreprises est proposé
- Prise en charge de tâches spécialisées par domaine, d’amélioration des performances sur des jeux de données propriétaires et de déploiement dans des environnements spécifiques
Valeurs clés de Mistral 3
- Performance de pointe et accessibilité ouverte : offrir des performances de niveau fermé au format open source
- Support multimodal et multilingue : compréhension de texte, d’images et logique dans plus de 40 langues
- Efficacité extensible : une fourchette de 3B à 675B paramètres, couvrant du edge à l’entreprise
- Utilisation adaptable : applicable à des workflows variés, y compris le code, l’analyse de documents et l’usage d’outils
Prochaines étapes
- La documentation modèle et les ressources techniques sont disponibles sur Mistral Docs et AI Governance Hub
- API immédiatement utilisable via Hugging Face et la plateforme Mistral AI
- Un canal de contact pour l’entraînement personnalisé et le fine-tuning pour entreprises est en place
- La communauté est accessible sur Twitter/X, Discord et GitHub
Conclusion
- Mistral 3 vise à développer un écosystème open AI basé sur la transparence, l’accessibilité et la co-évolution
- En ouvrant de nouvelles possibilités en matière de reasoning, d’efficacité et d’applications en conditions réelles, il se positionne comme un modèle open source de nouvelle génération qui transforme la compréhension en action
Aucun commentaire pour le moment.