- Outil open source prenant en charge l’exécution et l’entraînement en local de divers modèles d’IA — texte, audio, embeddings, vision, etc. — dans une seule interface
- Permet d’exécuter localement des modèles GGUF/safetensor sur Mac/Windows/Linux, tout en atteignant jusqu’à 2x plus de vitesse à l’entraînement et 70 % de VRAM en moins
- Basé sur llama.cpp + Hugging Face, avec prise en charge de l’inférence multi-GPU et de la plupart des modèles
- Le noyau Unsloth optimise LoRA, FP8, FFT, PT pour prendre en charge plus de 500 modèles de texte, vision, TTS/audio et embeddings
- Permet le fine-tuning des derniers LLM, comme Qwen3.5 et NVIDIA Nemotron 3, avec prise en charge automatique du multi-GPU
- Prend en charge un large éventail de méthodes d’entraînement, dont le full fine-tuning, l’entraînement en 4bit/16bit/FP8 et l’apprentissage par renforcement (GRPO)
- Des optimisations continuent d’être ajoutées, comme l’entraînement de LLM MoE 12x plus rapide, ou l’entraînement d’un modèle 20B avec une longueur de contexte de plus de 500K sur un GPU de 80GB
- Tous les modèles, y compris les modèles fine-tunés, peuvent être exportés en safetensors/GGUF pour être utilisés dans llama.cpp, vLLM, Ollama, LM Studio, etc.
- Intègre la fonctionnalité Data Recipes, qui convertit automatiquement des documents non structurés comme PDF, CSV et JSON en jeux de données, ainsi que l’appel d’outils auto-réparateurs et l’exécution de code
- Inclut des fonctions d’observabilité pour suivre en temps réel la perte d’entraînement et l’utilisation du GPU
- Dans Model Arena, il est possible de comparer côte à côte les sorties de 2 modèles, comme le modèle de base et le modèle fine-tuné
- Exécution 100 % hors ligne en local pour garantir la confidentialité, avec prise en charge d’Apple MLX, AMD et Intel prévue prochainement
- Workflow :
Lancer Studio →
Charger un modèle depuis des fichiers locaux ou une intégration prise en charge →
Importer des données d’entraînement depuis des PDF, CSV, JSONL, etc., ou créer un jeu de données de zéro →
Nettoyer et enrichir le jeu de données dans Data Recipes → démarrer l’entraînement avec des presets recommandés ou des paramètres personnalisés →
Comparer les sorties du modèle entraîné et du modèle de base →
Sauvegarder en local ou exporter vers la stack existante
- Licence
- Le paquet principal Unsloth est sous licence Apache 2.0
- Seuls certains composants optionnels, comme l’interface Unsloth Studio, sont sous licence open source AGPL-3.0
Aucun commentaire pour le moment.