Le parcours de DeepSeek vers l’open source pour son moteur d’inférence
(github.com/deepseek-ai)- L’équipe DeepSeek a dévoilé son plan pour rendre à l’open source son moteur d’inférence interne (DeepSeek Inference Engine)
- Le moteur d’inférence existant est basé sur vLLM, et son partage est envisagé face à la hausse de la demande de déploiement des modèles DeepSeek-V3 et R1
- Une publication complète est difficile en raison du code existant, des dépendances à l’infrastructure et de la charge de maintenance ; l’orientation évolue donc vers une contribution modulaire et par fonctionnalités
- À l’avenir, l’équipe prévoit de collaborer étroitement avec la communauté open source pour partager les optimisations de performances et les fonctionnalités réutilisables
- DeepSeek compte s’impliquer activement dans l’optimisation de l’inférence et l’alignement du support Day-0 avec la communauté lors des sorties de modèles
Le parcours de DeepSeek vers l’open source pour son moteur d’inférence
Réactions à l’Open Source Week et contributions de suivi
- Lors de la récente Open Source Week, plusieurs bibliothèques ont été publiées en open source
- Dans un contexte de réaction positive de la communauté, la collaboration, les discussions et les corrections de bugs ont été particulièrement actives
- Cela a conduit DeepSeek à décider de partager en open source son moteur d’inférence interne
Technologies de base
- Le framework d’entraînement de DeepSeek est basé sur PyTorch
- Le moteur d’inférence a été développé à partir d’un fork ancien du projet vLLM, avec de nombreuses personnalisations spécifiques aux modèles DeepSeek
Contraintes concrètes d’une publication intégrale en open source
- Différences de codebase : le projet a démarré à partir d’un fork de vLLM vieux de plus d’un an ; la structure reste similaire, mais de nombreux changements ont été apportés
- Dépendance à l’infrastructure interne : le moteur est fortement couplé à l’infrastructure propre à DeepSeek, comme les outils de gestion de cluster, ce qui complique son utilisation externe
- Manque de ressources de maintenance : en tant que petite équipe de recherche, DeepSeek n’a pas la capacité de gérer en continu un projet open source de grande ampleur
Alternative : collaboration avec des projets open source existants
À l’avenir, les contributions suivront les directions suivantes :
- Extraction de fonctionnalités modulaires : séparer les composants réutilisables en bibliothèques indépendantes afin d’y contribuer
- Partage des optimisations de performances : répercuter dans les projets open source existants les améliorations de performance et les idées de conception issues de l’implémentation interne
Remerciements à la communauté et vision
- Sans l’existence de la communauté open source, les progrès dans le développement de l’AGI auraient été impossibles
- Les systèmes d’exploitation, les langages, les frameworks de ML et les moteurs d’inférence constituent le socle de l’innovation en IA grâce à l’écosystème open source
- En coopération avec la communauté, DeepSeek continuera à œuvrer pour que les bénéfices de l’AGI profitent à l’ensemble de l’humanité
> [!NOTE]
> Ce texte présente la stratégie d’open source de la codebase de DeepSeek Inference Engine.
> Concernant les futures publications de modèles, DeepSeek prévoit d’élargir encore sa collaboration avec la communauté open source et ses partenaires hardware.
> En particulier, avant la sortie des modèles, l’entreprise entend partager et aligner en amont les technologies liées à l’inférence afin de coordonner l’écosystème pour permettre un support SOTA dès le Day-0 sur divers environnements matériels.
1 commentaires
Avis sur Hacker News
En mars, vLLM a appliqué les améliorations issues du papier de DeepSeek, ce qui a permis d’améliorer de plus de 3x les performances de DeepSeek dans vLLM v0.7.3
Je comprends bien le point de bascule d’une codebase
Les motivations des entreprises d’IA commerciales à partager leurs résultats de recherche et leur savoir-faire
« Il y a quelque chose d’intéressant pour la communauté open source, mais pour l’exécuter en dehors de l’entreprise, il faut beaucoup de nettoyage, et nous n’avons pas les effectifs pour le maintenir correctement après sa sortie »
J’ai vu du très bon travail d’ingénierie chez DeepSeek
Je me demande si la Chine adopte une stratégie consistant à publier massivement des outils, modèles, etc. d’IA open source pour répondre à la domination américaine
tl;dr « Le fork de vLLM est devenu impossible à maintenir, et ils vont maintenant le reconstruire publiquement »
J’ai l’impression que c’est aussi une manière de mettre en œuvre la censure