30 points par xguru 2026-01-20 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Outil à interface graphique conçu pour exécuter facilement des LLM sur du matériel personnel
  • Automatise les processus complexes comme la gestion du backend, le téléchargement des modèles et la configuration de l’accélération matérielle
  • Fonctionne sur la base de KoboldCpp, un fork de llama.cpp, et prend en charge à la fois la génération de texte et d’images
  • Prend en charge une exécution native sur Windows, macOS et Linux (notamment avec Wayland)
  • Fonctionne aussi sur les systèmes CPU uniquement, avec prise en charge de l’accélération GPU basée sur CUDA, ROCm, Vulkan, CLBlast, Metal
  • Fonction de génération d’images intégrée : fournit des préréglages de workflow majeurs comme Flux, Chroma, Qwen Image, Z-Image
  • Grâce à la recherche intégrée HuggingFace, il est possible d’explorer les modèles, de consulter les model cards et de télécharger directement des fichiers GGUF depuis l’application
  • L’option --cli permet une exécution en terminal, avec le même backend sans GUI, tout en minimisant l’usage des ressources
  • Licence AGPL-3.0

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.