2 points par GN⁺ 2025-09-05 | 1 commentaires | Partager sur WhatsApp
  • Le Chat lance un répertoire de connecteurs d’entreprise (bêta) de plus de 20 connecteurs
  • La fonctionnalité de connecteurs MCP personnalisés permet d’intégrer facilement des workflows et des outils
  • La nouvelle fonctionnalité Memories propose des réponses personnalisées basées sur l’historique des conversations et les préférences utilisateur
  • Des contrôles administrateur ainsi que diverses options de déploiement sont proposés, dont l’on-premise et les clouds privé/public
  • Toutes les fonctionnalités sont également ouvertes aux utilisateurs du plan gratuit

Présentation des principales mises à jour de Le Chat

Pour renforcer l’utilité de son assistant IA, Le Chat introduit un répertoire de connecteurs de niveau entreprise (bêta) et la fonctionnalité Memories. Ces deux nouveautés sont significatives car elles permettent à la fois l’automatisation des workflows, l’amélioration de la productivité et des réponses personnalisées.

Répertoire de connecteurs d’entreprise (bêta)

  • Plus de 20 connecteurs sécurisés sont proposés
    • Ils couvrent les données, la productivité, le développement, l’automatisation, le commerce et les intégrations personnalisées
    • Ils s’intègrent à de nombreux outils majeurs comme Databricks, Snowflake, GitHub, Atlassian, Asana, Outlook, Box, Stripe et Zapier
  • Il est possible d’ajouter directement des connecteurs MCP personnalisés, ce qui permet d’étendre largement l’intégration aux systèmes et workflows propres à chaque entreprise
  • Différents environnements de déploiement sont pris en charge : mobile, navigateur, on-premise, cloud privé et cloud public
  • Le Chat permet simultanément d’exécuter des workflows complexes comme la recherche de données, le résumé et l’exécution d’actions

Exemples de prise en charge par grande catégorie

  • Données : recherche et analyse de jeux de données avec Databricks, Snowflake, Pinecone, Prisma Postgres, DeepWiki, etc.
  • Productivité : collaboration sur des documents et projets avec Box, Notion, Asana, Monday.com, Atlassian (Jira/Confluence), etc.
  • Développement : gestion des issues et PR GitHub, création de tâches Linear, supervision Sentry, intégration à la Cloudflare Development Platform, etc.
  • Automatisation : automatisation des workflows et gestion de campagnes via Zapier, Brevo, etc.
  • Commerce : accès et gestion des données commerciales et de paiement de PayPal, Plaid, Square et Stripe
  • Personnalisé : ajout direct de connecteurs MCP propres à l’entreprise pour relier des systèmes internes et effectuer résumés, requêtes, etc.
  • Déploiement : libre choix entre environnement on-premise, cloud privé ou cloud public

Exemples d’usage des connecteurs

  • Résumer des avis clients dans Databricks, puis créer une issue dans Asana
  • Examiner une PR GitHub, puis créer une issue Jira et consigner les changements dans Notion
  • Comparer les obligations financières entre des contrats dans Box, puis téléverser à nouveau un résumé
  • Résumer les issues actives de Jira, puis rédiger un brouillon de page d’aperçu de sprint dans Confluence
  • Obtenir des insights sur les paiements de Stripe, puis enregistrer les cas anormaux dans Linear

Connexion et contrôle flexibles

  • La connexion directe à des serveurs MCP distants absents du répertoire de connecteurs est également prise en charge
  • Les administrateurs peuvent contrôler finement l’étendue de l’accès aux connecteurs des utilisateurs ainsi que les méthodes d’authentification
  • L’environnement de déploiement est lui aussi proposé sous diverses options adaptées aux caractéristiques de l’organisation : auto-hébergement, cloud privé ou public, ou service entièrement managé

Memories : exploitation continue du contexte conversationnel

La fonctionnalité Memories de Le Chat conserve l’historique des conversations, les décisions et les éléments de référence précédents afin d’offrir, à chaque échange, une expérience enrichie fondée sur les informations passées, avec une meilleure personnalisation, des recommandations sur mesure et des réponses plus fiables

  • En mettant l’accent sur la précision et la fiabilité, seules les informations importantes sont conservées, tandis que les données sensibles ou temporaires sont automatiquement exclues
  • Les utilisateurs peuvent eux-mêmes ajouter, modifier, mettre à jour et supprimer le contenu de la mémoire, avec des paramètres de protection de la vie privée transparents
  • Un outil d’import est également proposé pour récupérer rapidement les données de mémoire depuis ChatGPT

Guide de démarrage et événements

  • Les fonctionnalités de connecteurs et de mémoire sont ouvertes gratuitement à tous les utilisateurs de Le Chat
  • Elles sont disponibles immédiatement sur navigateur web et dans les applications iOS/Android (Le Chat by Mistral AI)
  • Des déploiements à plus grande échelle pour les entreprises ainsi qu’un accompagnement personnalisé sont également proposés

Informations sur le webinaire et le hackathon

  • 9 septembre : organisation d’un webinaire de présentation des fonctionnalités MCP de Le Chat, avec questions-réponses en direct et partage des derniers usages
  • 13-14 septembre : lors du hackathon Mistral AI MCP de deux jours à Paris, possibilité pour les ingénieurs IA de concrétiser leurs idées et de bénéficier d’un mentorat d’experts

Recrutement

Le Chat recrute des développeurs souhaitant créer avec lui des produits IA de niveau mondial

1 commentaires

 
GN⁺ 2025-09-05
Avis Hacker News
  • J’ai récemment migré la plupart de mes pipelines de gpt-4.1-mini vers gpt-5-mini, mais les performances étaient tellement mauvaises qu’après enquête, j’ai décidé de tout basculer vers mistral-medium-0525
    Le prix est le même, mais les résultats sont bien meilleurs, plus fiables, et c’est 10 fois plus rapide
    L’inconvénient, c’est que quand ça échoue, ça échoue de façon catastrophique
    gpt-5-mini ignorait environ 70 % du formatage du prompt, tandis que mistral-medium le respecte à 99 %, et dans 1 % des cas, il insère des caractères aléatoires inexpliqués (généralement des backticks), provoquant ses propres problèmes de formatage
    Malgré cela, je suis très satisfait de Mistral
    • Entourer le JSON généré par un LLM avec json ... est un pattern tellement courant que je vérifie et corrige ça au niveau de l’application
      Il y a 10 ans, quand je générais des données synthétiques avec des LSTM, je faisais déjà le même genre de sanity check sur le formatage
    • J’ai eu une expérience similaire dans mon pipeline aussi
      Pour réduire les coûts et tester autre chose qu’OpenAI, j’utilise Mistral Small pour les résumés et Large pour l’analyse finale, et j’en suis extrêmement satisfait
      En plus, il y a un free tier très généreux, ce qui aide beaucoup pour créer des PoC et des démos
    • Je me demande si tu utilisais structured output avec gpt-5 mini
      Est-ce que tu pourrais montrer des exemples où ça échoue souvent ?
      Je me demande comment les contraintes sur les tokens ont pu s’écarter autant du format attendu
    • Dans mon projet aussi, il y a une étape où les utilisateurs choisissent diverses options, et sur le jeu de tests qui couvre ce workflow, le taux de réussite de gpt-4.1-mini sort environ 7 % plus haut que gpt-5 et gpt-5-mini (sans besoin particulier de raisonnement)
    • Je suis curieux de voir comment ton prompt était construit, mon expérience est complètement inverse
      Je pose beaucoup de questions one-shot aléatoires sur lmarena, et quand je vote à l’aveugle, mistral-medium est systématiquement le moins bon choix
      Par rapport à qwen, llama, gemini, gpt, etc., c’est de très loin celui qui produit le plus grand taux d’informations factuellement fausses
      Si tu peux partager un exemple de prompt, ça m’intéresserait de voir à quoi il réagit bien
  • Si quelqu’un de chez Mistral voit ce post, je me demande s’il existe un moyen d’ajouter une implémentation MCP tierce dans le répertoire des connecteurs
    J’ai créé un connecteur MCP capable de se connecter à pratiquement tous les protocoles de transfert de fichiers possibles : S3, FTP(S), SFTP, SMB, NFS, Gdrive, Dropbox, Azure Blob, Onedrive, Sharepoint, etc.
    J’y ai ajouté plusieurs couches : délégation d’authentification, application des permissions, support RBAC, restriction de l’accès du LLM via Chroot, ainsi que des outils pour visualiser/modifier plusieurs formats de fichiers
    C’est open source, et ce serait sympa de l’ajouter au répertoire
    https://github.com/mickael-kerjean/filestash
  • Mistral a récemment été valorisée à 14 milliards de dollars lors de son tour de financement
    Comparé à Anthropic ou OAI, la valorisation paraît bien plus basse, donc ça me semble assez bon marché
    Pour mieux comprendre cette valorisation, il serait intéressant de comparer les revenus et la croissance
    Et Mistral semble être quasiment le seul acteur important encore en lice parmi les entreprises émergentes de Gen AI liées à l’Europe
    On n’entend plus parler d’Aleph Alpha, et avec Schwarz Group aux commandes, cela ressemble pratiquement à une simple acquisition de talents
  • J’utilise en payant Lumo LLM Chat de ProtonMail, centré sur la confidentialité, et il a aussi un bon outil de recherche web
    Lumo fonctionne sur des modèles Mistral
    Je l’utilise souvent et, la plupart du temps, les résultats me conviennent largement
    Pour le code, en revanche, j’utilise encore gemini-cli et codex d’OpenAI deux à trois fois par semaine
    J’habite aux États-Unis, mais si j’étais européen, je soutiendrais Mistral à fond pour l’industrie IA de ma région et de mon pays
    • Il faut noter que Proton n’est pas très transparent sur l’open source de son code
      https://news.ycombinator.com/item?id=44665398
    • Je me demande ce que ProtonMail fait en interne
      L’endpoint d’API public de Mistral passe par CloudFlare, et c’est aussi le cas de tous les modèles chinois que j’ai vérifiés
    • Il y a aussi cette inquiétude : même en cas de succès, ils finiront probablement par être rachetés par un grand concurrent américain
  • Je n’ai jamais utilisé les modèles Mistral, mais j’adore vraiment leur design
    Bravo à l’équipe design de Mistral pour ce style orange à l’allure pixel art moderne
    • Je trouve frappant qu’ils utilisent Arial comme police sur tout le site, c’est un choix très atypique
  • Je me demande pourquoi il faudrait utiliser le service MCP de Mistral au lieu des services MCP officiels de Notion, Stripe, etc.
    Les services MCP officiels devraient forcément être meilleurs, et en plus il n’y a pas besoin de donner à Mistral les autorisations d’accès aux ressources
  • Mistral est sur le point de boucler un financement avec une valorisation de 14 milliards de dollars
    https://www.bloomberg.com/news/articles/2025-09-03/mistral-set-for-14-billion-valuation-with-new-funding-round
    • Ça ne semble pas énorme, Anthropic a récemment levé presque autant
      Je me demande vraiment si Mistral peut survivre
  • Ils parlent de « plus de 20 répertoires de connecteurs sécurisés », mais n’expliquent pas ce que « sécurisés » veut dire ici
    Ça veut peut-être dire ceci
    Les administrateurs peuvent probablement contrôler finement quels connecteurs chaque utilisateur peut utiliser, ainsi que les droits d’accès via l’authentification déléguée (on-behalf authentication)
    • Je me demande quelles fonctionnalités MCP sont proposées par Stripe, Paypal, etc.
      J’aimerais savoir si cela inclut aussi la conversion de devises, les frais, la documentation API, etc.
  • Toutes les fonctionnalités sont disponibles dans le forfait gratuit, belle offre