- Forge est un système qui permet aux entreprises de construire leurs propres modèles d’IA fondés sur leurs connaissances internes, en comblant les limites des modèles existants centrés sur les données publiques
- Il entraîne des modèles spécialisés par domaine à partir de documents internes, de bases de code et de données opérationnelles, tout en prenant en charge les étapes de pré-entraînement, post-entraînement et apprentissage par renforcement
- Il permet de conserver le contrôle sur les modèles, les données et les connaissances, ainsi que la protection de la propriété intellectuelle, ce qui le rend exploitable même dans les secteurs réglementés
- Grâce à des modèles sur mesure, les agents d’entreprise peuvent comprendre les systèmes et politiques internes, et exécuter avec précision l’usage des outils comme la prise de décision
- Il prend en charge diverses architectures et l’apprentissage par renforcement continu, ce qui renforce l’autonomie stratégique de l’IA d’entreprise et ses possibilités d’amélioration à long terme
Présentation de Forge
- Forge est un système qui permet aux entreprises de construire des modèles d’IA de niveau frontier à partir de leurs connaissances et données propres
- Alors que les modèles traditionnels fondés sur des données publiques sont optimisés pour des tâches générales, Forge reflète le contexte propre à chaque organisation, comme les standards internes, les politiques, le code ou les historiques de décision
- Il aide ainsi l’IA à fonctionner en adéquation avec l’environnement opérationnel et les workflows de l’entreprise
- Mistral AI collabore déjà avec ASML, Ericsson, European Space Agency et HTX Singapore pour appliquer cette technologie
Entraînement de modèles fondés sur les connaissances institutionnelles
- Forge entraîne les modèles à partir de grands volumes de données internes tels que des documents, des bases de code, des données structurées et des journaux d’exploitation
- Le modèle assimile alors la terminologie, les schémas de raisonnement et les contraintes propres à cet environnement
- Le processus d’entraînement se compose de trois étapes
- Pré-entraînement (pre-training) : construction d’un modèle sensibilisé au domaine à partir des données internes
- Post-entraînement (post-training) : ajustement fin du modèle pour l’adapter à des tâches et environnements spécifiques
- Apprentissage par renforcement (reinforcement learning) : alignement du comportement du modèle sur les politiques internes et les critères d’évaluation, avec amélioration des performances en conditions réelles
- Cela permet de développer des modèles qui reflètent l’intelligence de l’organisation
Contrôle et autonomie stratégique
- Forge est conçu pour permettre aux entreprises de conserver le contrôle sur les modèles et les données
- Les modèles sont entraînés sur des données internes et peuvent être gérés selon les politiques, critères d’évaluation et exigences opérationnelles de l’entreprise
- Il permet de répondre aux exigences de conformité et de gouvernance dans des environnements réglementés
- L’exécution des modèles sur une infrastructure propre garantit une autonomie stratégique
Modèles sur mesure et agents fiables
- Les agents d’entreprise ne doivent pas seulement générer des réponses, mais aussi naviguer dans les systèmes internes, utiliser des outils et prendre des décisions fondées sur des politiques
- Les agents fondés sur des modèles entraînés sur le domaine comprennent la terminologie et les procédures internes, et saisissent les relations entre systèmes
- Meilleure précision dans le choix des outils, plus grande fiabilité des workflows à plusieurs étapes, et décisions tenant compte des politiques internes
- Il devient ainsi possible de mettre en œuvre des agents d’IA comme composants opérationnels
Prise en charge de différentes architectures de modèles
- Forge prend en charge à la fois les architectures Dense et Mixture-of-Experts (MoE)
- Les modèles Dense sont performants sur les tâches généralistes, tandis que les MoE permettent d’exploiter de grands modèles avec une faible latence et une bonne efficacité économique
- La prise en charge des entrées multimodales permet d’entraîner des modèles sur divers formats de données, comme le texte ou l’image
Une conception centrée sur les agents
- Forge est conçu avec les agents de code comme principaux utilisateurs
- Exemple : des agents autonomes comme Mistral Vibe peuvent effectuer le fine-tuning du modèle, l’exploration d’hyperparamètres, l’ordonnancement des tâches et la génération de données synthétiques
- Forge prévient les baisses de performance grâce au monitoring des métriques d’évaluation pendant l’entraînement
- En incluant la gestion de l’infrastructure et les recettes de pipeline de données, il permet la personnalisation du modèle via de simples commandes en langage naturel
Amélioration continue et évaluation
- Forge prend en charge un apprentissage adaptatif continu
- Grâce au pipeline d’apprentissage par renforcement, le comportement du modèle peut être amélioré à partir des retours internes
- Le framework d’évaluation permet de tester des benchmarks internes, des règles réglementaires et des tâches propres à chaque domaine
- Il devient ainsi possible de mettre en place un cycle de vie de modèle en amélioration continue plutôt qu’un déploiement statique
Cas d’usage en entreprise
- Administrations publiques : apprentissage de documents de politique multilingues et de procédures administratives pour soutenir l’analyse des politiques et les services publics
- Institutions financières : apprentissage de documents réglementaires et de procédures de risque pour assurer la cohérence de la gouvernance interne
- Équipes logicielles : apprentissage sur la base de code interne pour améliorer la productivité du développement, de l’implémentation au débogage et à la revue
- Fabricants : apprentissage de spécifications de conception et de données de maintenance pour aider au diagnostic et à la prise de décision
- Grandes entreprises : agents fondés sur des systèmes de connaissance internes pour prendre en charge des workflows complexes et améliorer la précision de la recherche d’information
Conclusion : vers une infrastructure d’IA centrée sur l’entreprise
- Alors que les modèles d’IA deviennent une couche centrale de l’infrastructure des entreprises, la modélisation des connaissances organisationnelles devient essentielle
- Forge fournit la base permettant aux entreprises de construire, entraîner, aligner et évaluer des modèles sur leurs propres données afin d’en faire un actif stratégique
- Il devient ainsi possible de transformer l’IA, d’un outil externe, en une capacité clé évoluant avec les connaissances de l’organisation
1 commentaires
Réactions sur Hacker News
J’aime bien Mistral. L’équilibre entre le coût et l’hébergement des données dans l’UE est parfait. Il n’y a presque pas de perte de qualité.
En revanche, leur système de noms de modèles est beaucoup trop confus. Par exemple, il y a un modèle appelé Devstral 2, qui n’est ni Codestral ni Devestral.
Dans l’API, il y a plusieurs noms comme devstral-2512, devstral-latest, devstral-medium-latest, etc.
Je me suis dit que devstral-latest devait être le bon, alors j’ai contacté le support, et 12 heures plus tard ils m’ont envoyé un guide de configuration IntelliJ généré par IA disant que « devstral 2, c’est devstral 2 ».
Le problème, c’est que les écrans montrés dans ce guide n’existent même pas
devstral-2512, devstral-latest et devstral-medium-latest correspondent tous à devstral 2.
labs-devstral-small-2512 et devstral-small-latest correspondent à devstral small 2,
devstral-medium-2507 à devstral 1.0, et devstral-small-2507 à devstral small 1.1
On dirait qu’ils veulent proposer des workflows adaptés à chaque entreprise.
Ou alors, ils ont peut-être un problème de communication entre équipes comme chez Google
La qualité des modèles est plus faible, mais en Europe c’est malgré tout ce qu’il y a de mieux.
Bien sûr, on peut aussi faire tourner des modèles chinois sur des serveurs européens
Il ne faut pas sous-estimer Mistral. Comme LLM généraliste en tant que service, c’est assez bon marché,
et leur stratégie consistant à se concentrer sur le modélisme sur mesure plutôt que sur les modèles géants finira probablement par payer.
Ils peuvent notamment avoir un avantage dans l’environnement très réglementé de l’UE.
Le monde ne se limite pas à la génération de code
Cela dit, c’est une stratégie avec peu de barrières à l’entrée, donc facile à copier.
S’ils accumulent beaucoup de modèles préentraînés pour chaque produit, ERP, CRM, etc.,
puis vendent des modèles dérivés intégrant les données de personnalisation des clients, alors là ils auront un vrai moat.
L’essentiel, c’est de conclure discrètement des contrats
je me demande comment le modélisme sur mesure peut remplacer cette masse de connaissances
Il suffit d’uploader un dataset et le modèle est immédiatement utilisable via un endpoint.
Il y a des limites, mais ça améliore énormément l’accessibilité
Ça fonctionne aussi en local, ce qui permet au développeur de garder le contrôle
La qualité de leurs modèles est parmi les plus faibles des LLM
Je me demandais ce qu’ils entendent par « pre-training » et « post-training ».
En pratique, ils n’ont probablement pas suffisamment de datasets propres,
donc je ne sais pas si leur préentraînement correspond vraiment à l’entraînement d’un modèle de base, ou plutôt à du SFT (supervised fine-tuning).
Peut-être qu’ils génèrent aussi des données synthétiques à partir de données internes pour faire une distillation de connaissances à basse résolution
Comme l’objectif reste de prédire le token suivant, on parle de « continued pre-training ».
Le post-training regroupe tous les processus basés sur le feedback humain, comme SFT, DPO, RL, etc.
et le post-training à ajouter des données dans le prompt, comme avec le RAG
D’après la présentation de Forge, ils entraînent les modèles sur la documentation interne ou la base de code de l’entreprise
afin d’y intégrer la connaissance métier.
Mais à mon avis, pour acquérir des connaissances, le RAG est plus efficace que le fine-tuning.
Le fine-tuning est utile pour changer le « ton » du modèle, mais il est difficile d’y injecter de nouvelles connaissances
Je soutiens l’approche de Mistral.
Au lieu de se lancer dans la course aux modèles géants, leur stratégie consistant à se concentrer sur l’ingénierie sur mesure pour les clients et sur le marché européen est intelligente
Les autres modèles se préoccupent trop du niveau de compréhension du lecteur,
alors que Mistral suit très bien les discussions profondes et techniques
Ces derniers temps, Mistral tente vraiment beaucoup de choses intéressantes.
Il leur sera difficile de rivaliser avec OpenAI ou Anthropic,
mais l’originalité de la conception produit ressort clairement.
Personnellement, j’irais presque jusqu’à vouloir travailler chez eux
Mistral a récemment lancé beaucoup de fonctionnalités intéressantes.
Ce ne sont pas des modèles de pointe, mais quand on pense à la difficulté pour les petites entreprises d’entraîner elles-mêmes des modèles,
ce type d’outil représente une vraie opportunité.
Surtout avec des outils comme unsloth, l’entraînement paraît bien plus réaliste
Je me demande combien de cas d’usage en entreprise nécessitent réellement du fine-tuning.
Le RAG ne suffirait-il pas dans la plupart des cas ?
on peut réduire les appels à des LLM distants pour l’analyse de logs, l’utilisation d’outils ou l’intégration de connaissances métier
En revanche, le fine-tuning améliore les capacités de raisonnement du modèle lui-même
Les implications de cette approche pour l’économie de l’IA sont intéressantes.
Le nombre de GPU ne semble pas être la véritable barrière à l’entrée.
Au contraire, ce sont les données spécialisées et propriétaires qui deviendront le vrai moat.
Les données internes des entreprises contiennent des connaissances irremplaçables.
C’est précisément là-dessus que mise Mistral
mais on peut aussi dire qu’ils ont en quelque sorte été entraînés sur 3,5 milliards d’années de données d’évolution
C’est la façon la plus intelligente de gagner de l’argent avec l’IA.
MongoDB entre lui aussi sur le marché du RAG d’entreprise et du conseil en modèles sur mesure
via VoyageAI.