GGML et llama.cpp rejoignent Hugging Face
(huggingface.co)Hugging Face a annoncé l’arrivée de Georgi Gerganov, développeur clé de llama.cpp et du moteur GGML.
Points clés : avec l’intégration de llama.cpp (le moteur de facto standard pour exécuter des LLM en local) et des technologies basées sur GGML au sein de Hugging Face, les deux piliers de l’écosystème open source de l’IA locale sont désormais réunis.
llama.cpp reste 100 % open source et continuera d’être maintenu avec une priorité donnée aux performances.
Changements attendus :
- prise en charge et conversion automatiques des modèles au format GGUF depuis la bibliothèque transformers, à un niveau proche du one-click
- exécution locale haute performance immédiate des nouveaux modèles, sans optimisation manuelle
- amélioration majeure de l’orientation des outils d’IA locale et de l’expérience utilisateur
Portée : l’infrastructure permettant aux particuliers comme aux entreprises d’exécuter librement des LLM de haute qualité en local, sans dépendre de serveurs centraux, s’en trouve encore renforcée.
Aucun commentaire pour le moment.