Le Chat : connecteurs MCP personnalisés et mémoire
(mistral.ai)- Le Chat lance un répertoire de connecteurs d’entreprise (bêta) de plus de 20 connecteurs
- La fonctionnalité de connecteurs MCP personnalisés permet d’intégrer facilement des workflows et des outils
- La nouvelle fonctionnalité Memories propose des réponses personnalisées basées sur l’historique des conversations et les préférences utilisateur
- Des contrôles administrateur ainsi que diverses options de déploiement sont proposés, dont l’on-premise et les clouds privé/public
- Toutes les fonctionnalités sont également ouvertes aux utilisateurs du plan gratuit
Présentation des principales mises à jour de Le Chat
Pour renforcer l’utilité de son assistant IA, Le Chat introduit un répertoire de connecteurs de niveau entreprise (bêta) et la fonctionnalité Memories. Ces deux nouveautés sont significatives car elles permettent à la fois l’automatisation des workflows, l’amélioration de la productivité et des réponses personnalisées.
Répertoire de connecteurs d’entreprise (bêta)
- Plus de 20 connecteurs sécurisés sont proposés
- Ils couvrent les données, la productivité, le développement, l’automatisation, le commerce et les intégrations personnalisées
- Ils s’intègrent à de nombreux outils majeurs comme Databricks, Snowflake, GitHub, Atlassian, Asana, Outlook, Box, Stripe et Zapier
- Il est possible d’ajouter directement des connecteurs MCP personnalisés, ce qui permet d’étendre largement l’intégration aux systèmes et workflows propres à chaque entreprise
- Différents environnements de déploiement sont pris en charge : mobile, navigateur, on-premise, cloud privé et cloud public
- Le Chat permet simultanément d’exécuter des workflows complexes comme la recherche de données, le résumé et l’exécution d’actions
Exemples de prise en charge par grande catégorie
- Données : recherche et analyse de jeux de données avec Databricks, Snowflake, Pinecone, Prisma Postgres, DeepWiki, etc.
- Productivité : collaboration sur des documents et projets avec Box, Notion, Asana, Monday.com, Atlassian (Jira/Confluence), etc.
- Développement : gestion des issues et PR GitHub, création de tâches Linear, supervision Sentry, intégration à la Cloudflare Development Platform, etc.
- Automatisation : automatisation des workflows et gestion de campagnes via Zapier, Brevo, etc.
- Commerce : accès et gestion des données commerciales et de paiement de PayPal, Plaid, Square et Stripe
- Personnalisé : ajout direct de connecteurs MCP propres à l’entreprise pour relier des systèmes internes et effectuer résumés, requêtes, etc.
- Déploiement : libre choix entre environnement on-premise, cloud privé ou cloud public
Exemples d’usage des connecteurs
- Résumer des avis clients dans Databricks, puis créer une issue dans Asana
- Examiner une PR GitHub, puis créer une issue Jira et consigner les changements dans Notion
- Comparer les obligations financières entre des contrats dans Box, puis téléverser à nouveau un résumé
- Résumer les issues actives de Jira, puis rédiger un brouillon de page d’aperçu de sprint dans Confluence
- Obtenir des insights sur les paiements de Stripe, puis enregistrer les cas anormaux dans Linear
Connexion et contrôle flexibles
- La connexion directe à des serveurs MCP distants absents du répertoire de connecteurs est également prise en charge
- Les administrateurs peuvent contrôler finement l’étendue de l’accès aux connecteurs des utilisateurs ainsi que les méthodes d’authentification
- L’environnement de déploiement est lui aussi proposé sous diverses options adaptées aux caractéristiques de l’organisation : auto-hébergement, cloud privé ou public, ou service entièrement managé
Memories : exploitation continue du contexte conversationnel
La fonctionnalité Memories de Le Chat conserve l’historique des conversations, les décisions et les éléments de référence précédents afin d’offrir, à chaque échange, une expérience enrichie fondée sur les informations passées, avec une meilleure personnalisation, des recommandations sur mesure et des réponses plus fiables
- En mettant l’accent sur la précision et la fiabilité, seules les informations importantes sont conservées, tandis que les données sensibles ou temporaires sont automatiquement exclues
- Les utilisateurs peuvent eux-mêmes ajouter, modifier, mettre à jour et supprimer le contenu de la mémoire, avec des paramètres de protection de la vie privée transparents
- Un outil d’import est également proposé pour récupérer rapidement les données de mémoire depuis ChatGPT
Guide de démarrage et événements
- Les fonctionnalités de connecteurs et de mémoire sont ouvertes gratuitement à tous les utilisateurs de Le Chat
- Elles sont disponibles immédiatement sur navigateur web et dans les applications iOS/Android (Le Chat by Mistral AI)
- Des déploiements à plus grande échelle pour les entreprises ainsi qu’un accompagnement personnalisé sont également proposés
Informations sur le webinaire et le hackathon
- 9 septembre : organisation d’un webinaire de présentation des fonctionnalités MCP de Le Chat, avec questions-réponses en direct et partage des derniers usages
- 13-14 septembre : lors du hackathon Mistral AI MCP de deux jours à Paris, possibilité pour les ingénieurs IA de concrétiser leurs idées et de bénéficier d’un mentorat d’experts
Recrutement
Le Chat recrute des développeurs souhaitant créer avec lui des produits IA de niveau mondial
1 commentaires
Avis Hacker News
Le prix est le même, mais les résultats sont bien meilleurs, plus fiables, et c’est 10 fois plus rapide
L’inconvénient, c’est que quand ça échoue, ça échoue de façon catastrophique
gpt-5-mini ignorait environ 70 % du formatage du prompt, tandis que mistral-medium le respecte à 99 %, et dans 1 % des cas, il insère des caractères aléatoires inexpliqués (généralement des backticks), provoquant ses propres problèmes de formatage
Malgré cela, je suis très satisfait de Mistral
json ...est un pattern tellement courant que je vérifie et corrige ça au niveau de l’applicationIl y a 10 ans, quand je générais des données synthétiques avec des LSTM, je faisais déjà le même genre de sanity check sur le formatage
Pour réduire les coûts et tester autre chose qu’OpenAI, j’utilise Mistral Small pour les résumés et Large pour l’analyse finale, et j’en suis extrêmement satisfait
En plus, il y a un free tier très généreux, ce qui aide beaucoup pour créer des PoC et des démos
Est-ce que tu pourrais montrer des exemples où ça échoue souvent ?
Je me demande comment les contraintes sur les tokens ont pu s’écarter autant du format attendu
Je pose beaucoup de questions one-shot aléatoires sur lmarena, et quand je vote à l’aveugle, mistral-medium est systématiquement le moins bon choix
Par rapport à qwen, llama, gemini, gpt, etc., c’est de très loin celui qui produit le plus grand taux d’informations factuellement fausses
Si tu peux partager un exemple de prompt, ça m’intéresserait de voir à quoi il réagit bien
J’ai créé un connecteur MCP capable de se connecter à pratiquement tous les protocoles de transfert de fichiers possibles : S3, FTP(S), SFTP, SMB, NFS, Gdrive, Dropbox, Azure Blob, Onedrive, Sharepoint, etc.
J’y ai ajouté plusieurs couches : délégation d’authentification, application des permissions, support RBAC, restriction de l’accès du LLM via Chroot, ainsi que des outils pour visualiser/modifier plusieurs formats de fichiers
C’est open source, et ce serait sympa de l’ajouter au répertoire
https://github.com/mickael-kerjean/filestash
Comparé à Anthropic ou OAI, la valorisation paraît bien plus basse, donc ça me semble assez bon marché
Pour mieux comprendre cette valorisation, il serait intéressant de comparer les revenus et la croissance
Et Mistral semble être quasiment le seul acteur important encore en lice parmi les entreprises émergentes de Gen AI liées à l’Europe
On n’entend plus parler d’Aleph Alpha, et avec Schwarz Group aux commandes, cela ressemble pratiquement à une simple acquisition de talents
Ils ont récemment annoncé un framework d’agents séparé
https://www.heise.de/en/news/DeepL-presents-its-own-AI-agent-for-companies-10630391.html Globalement, je pense que l’IA en Europe a du potentiel
Lumo fonctionne sur des modèles Mistral
Je l’utilise souvent et, la plupart du temps, les résultats me conviennent largement
Pour le code, en revanche, j’utilise encore gemini-cli et codex d’OpenAI deux à trois fois par semaine
J’habite aux États-Unis, mais si j’étais européen, je soutiendrais Mistral à fond pour l’industrie IA de ma région et de mon pays
https://news.ycombinator.com/item?id=44665398
L’endpoint d’API public de Mistral passe par CloudFlare, et c’est aussi le cas de tous les modèles chinois que j’ai vérifiés
Bravo à l’équipe design de Mistral pour ce style orange à l’allure pixel art moderne
Les services MCP officiels devraient forcément être meilleurs, et en plus il n’y a pas besoin de donner à Mistral les autorisations d’accès aux ressources
https://www.bloomberg.com/news/articles/2025-09-03/mistral-set-for-14-billion-valuation-with-new-funding-round
Je me demande vraiment si Mistral peut survivre
Ça veut peut-être dire ceci
Les administrateurs peuvent probablement contrôler finement quels connecteurs chaque utilisateur peut utiliser, ainsi que les droits d’accès via l’authentification déléguée (on-behalf authentication)
J’aimerais savoir si cela inclut aussi la conversion de devises, les frais, la documentation API, etc.