Mistral Medium 3.5
(mistral.ai)- Le modèle dense 128B gère à la fois le suivi d’instructions, le raisonnement et le codage avec un seul jeu de poids, et est proposé en preview publique
- Il prend en charge une fenêtre de contexte de 256k ainsi qu’un réglage de l’effort de raisonnement par requête, ce qui permet de traiter avec le même modèle aussi bien de courtes réponses de chat que des exécutions agentiques complexes
- Les sessions de vibe coding s’exécutent désormais de manière asynchrone dans le cloud et plusieurs sessions peuvent tourner en parallèle ; les sessions CLI locales peuvent être téléportées dans le cloud avec l’historique, l’état de la tâche et les validations
- Le Work mode de Le Chat est un mode agentique basé sur Mistral Medium 3.5, qui exploite le contexte des outils connectés, des documents, des boîtes mail et des calendriers, et demande une approbation explicite pour les actions sensibles
- Le modèle devient le modèle par défaut de Le Chat et remplace Devstral 2 dans Vibe CLI ; le prix de l’API est de 1,5 $ par million de tokens en entrée et 7,5 $ par million de tokens en sortie
Annonce de Mistral Medium 3.5
- L’encodeur de vision a été entraîné from scratch pour gérer différentes tailles d’image et différents ratios d’aspect
- Il atteint 77,6 % sur SWE-Bench Verified, devant des modèles comme Devstral 2 et Qwen3.5 397B A17B
- Sur τ³-Telecom, il obtient 91,4 et met l’accent sur les appels à de multiples outils ainsi que sur la génération de sorties structurées exploitables par du code en aval
Agent de codage distant Vibe
- Les sessions de codage s’exécutent désormais de manière asynchrone dans le cloud, ce qui permet de poursuivre de longues tâches pendant que l’utilisateur est absent
- Plusieurs sessions peuvent être lancées en parallèle, afin que le développeur ne devienne pas un goulot d’étranglement à chaque étape menée par l’agent
- L’agent cloud peut être lancé depuis Mistral Vibe CLI ou depuis Le Chat
- Pendant l’exécution, il est possible de consulter les diffs de fichiers, les appels d’outils, l’état d’avancement et les questions de l’agent
- Les sessions CLI locales peuvent être téléportées vers le cloud, avec l’historique de session, l’état de la tâche et les validations
Une architecture intégrée au workflow de développement
- Vibe s’insère entre les systèmes déjà utilisés par les équipes de développement, tout en conservant un human-in-the-loop à chaque point nécessaire
- GitHub est connecté pour le code et les pull requests, et Linear ainsi que Jira pour les issues
- Sentry est relié à la gestion des incidents, et des applications comme Slack et Teams au reporting
- Chaque session de codage s’exécute dans un sandbox isolé et peut inclure des modifications étendues ainsi que des installations
- Une fois le travail terminé, l’agent peut ouvrir une pull request GitHub et envoyer une notification, de sorte que le développeur examine le résultat plutôt que chaque frappe au clavier
Tâches de codage adaptées et exécution dans Le Chat
- L’agent distant Vibe est conçu pour du well-defined work qui demande encore le jugement d’un développeur, mais consomme beaucoup de temps
- Les tâches visées incluent le refactoring de modules, la génération de tests, la mise à niveau de dépendances, l’investigation CI et la correction de bugs
- Les Workflows peuvent être orchestrés dans Mistral Studio afin de rendre Mistral Vibe utilisable dans Le Chat
- Cette fonctionnalité a d’abord été créée pour l’environnement de codage interne, puis utilisée pour les clients enterprise
- Il est désormais possible de lancer des tâches de codage depuis le web et d’exécuter plusieurs travaux en parallèle sans être lié à un terminal local
- Les tâches rédigées dans Le Chat s’exécutent dans le même runtime distant que celui utilisé par la CLI et le web, puis reviennent plus tard sous forme de branche terminée ou de draft PR
Le Work mode de Le Chat
- Le Work mode est le mode agentique de Le Chat pour traiter des tâches complexes ; il repose sur un nouveau harness et sur Mistral Medium 3.5
- L’agent devient le backend d’exécution de l’assistant lui-même, ce qui permet à Le Chat de lire et d’écrire, d’utiliser simultanément plusieurs outils et de gérer des projets en plusieurs étapes
-
Workflows entre outils
- Il peut rattraper emails, messages et calendrier en une seule exécution
- Il peut préparer une réunion avec le contexte des participants, les dernières actualités et des talking points extraits des sources
-
Recherche et synthèse
- Il peut enquêter sur un sujet à travers le web, les documents internes et les outils connectés
- Il peut produire un brief ou un rapport structuré, modifiable puis exportable ou envoyable
-
Boîte de réception et travail d’équipe
- Il peut trier la boîte de réception et rédiger des brouillons de réponse
- Il peut créer des issues Jira à partir des discussions avec l’équipe et les clients, puis envoyer un résumé à l’équipe sur Slack
- Les sessions durent plus longtemps que les réponses de chat classiques et peuvent se poursuivre jusqu’à l’achèvement, à travers plusieurs tours et essais-erreurs
- En Work mode, les connecteurs sont activés par défaut plutôt que sélectionnés manuellement, ce qui permet d’accéder au contexte des documents, boîtes mail, calendriers et autres systèmes
- Toutes les actions de l’agent sont visibles, y compris chaque appel d’outil et la logique de raisonnement
- Pour les actions sensibles comme l’envoi de messages, la rédaction de documents ou la modification de données, Le Chat demande une approbation explicite selon les autorisations
Disponibilité et prix
- Mistral Medium 3.5 est disponible dans Mistral Vibe et Le Chat
- Les agents de codage distants et le Work mode de Le Chat sont propulsés par Mistral Medium 3.5 dans les offres Pro, Team et Enterprise
- Le prix de l’API est de 1,5 $ par million de tokens en entrée et de 7,5 $ par million de tokens en sortie
- Les open weights sont disponibles sur Hugging Face sous modified MIT license
- Le modèle est aussi hébergé pour le prototypage sur l’endpoint accéléré par GPU NVIDIA de build.nvidia.com
- Il est également disponible via NVIDIA NIM, un microservice d’inférence conteneurisé et scalable
Aucun commentaire pour le moment.