- Outil à interface graphique conçu pour exécuter facilement des LLM sur du matériel personnel
- Automatise les processus complexes comme la gestion du backend, le téléchargement des modèles et la configuration de l’accélération matérielle
- Fonctionne sur la base de KoboldCpp, un fork de llama.cpp, et prend en charge à la fois la génération de texte et d’images
- Prend en charge une exécution native sur Windows, macOS et Linux (notamment avec Wayland)
- Fonctionne aussi sur les systèmes CPU uniquement, avec prise en charge de l’accélération GPU basée sur CUDA, ROCm, Vulkan, CLBlast, Metal
- Fonction de génération d’images intégrée : fournit des préréglages de workflow majeurs comme Flux, Chroma, Qwen Image, Z-Image
- Grâce à la recherche intégrée HuggingFace, il est possible d’explorer les modèles, de consulter les model cards et de télécharger directement des fichiers GGUF depuis l’application
- L’option
--cli permet une exécution en terminal, avec le même backend sans GUI, tout en minimisant l’usage des ressources
- Licence AGPL-3.0
Aucun commentaire pour le moment.