Refonte de vLLM Recipes : les réglages par combinaison modèle + matériel en un clic
(recipes.vllm.ai)recipes.vllm.ai a été largement refondu. Vous pouvez désormais obtenir de façon interactive la réponse à la question : « comment faire tourner le modèle X sur le matériel Y avec vLLM ? »
Principaux changements
URL miroir HuggingFace — remplacez huggingface.co par recipes.vllm.ai pour accéder directement à la recette du modèle correspondant (ex. : recipes.vllm.ai/Qwen/Qwen3.6-35B-A3B)
Constructeur de commandes interactif — choisissez le matériel, la variante et la stratégie de parallélisation pour générer immédiatement une commande vllm serve prête à l’emploi
Matériel enfichable — bascule en un clic entre NVIDIA (Hopper/Blackwell) et AMD (MI300X/MI355X), avec application automatique des flags et variables d’environnement
API JSON — toutes les recettes sont disponibles via le chemin /.json, pour une consommation directe par des agents et outils d’automatisation
Contribuer des recettes avec les compétences d’agent
Le dépôt inclut des compétences d’agent, ce qui permet de contribuer à de nouvelles recettes de bout en bout. L’agent guide le processus, de l’exécution des benchmarks jusqu’à la génération de la recette et la soumission d’une PR.
→ github.com/vllm-project/recipes
4 commentaires
D’ici peu, on pourra peut-être déployer sur n’importe quel appareil en un clic… impressionnant.
On dirait bien qu’ils vont tous exister désormais pour les services.
Il manque encore beaucoup de modèles, on dirait.
C’est donc une bonne occasion de contribuer.