- Afin d’assurer le développement durable de l’écosystème de l’IA locale, ggml.ai, l’équipe fondatrice de
llama.cpp, rejoint Hugging Face
ggml et llama.cpp continueront d’être gérés de manière open source et centrée sur la communauté, l’équipe assurant leur maintenance et leur support à temps plein
- Hugging Face prévoit de garantir la pérennité à long terme des projets, tout en se concentrant sur l’amélioration de l’expérience utilisateur et de l’intégration avec transformers
- Cette collaboration vise à améliorer l’accessibilité et la facilité de déploiement de l’inférence locale (Local Inference), tout en renforçant la prise en charge de diverses architectures de modèles
- Les deux parties partagent une vision de long terme consistant à construire une superintelligence open source accessible au monde entier
Annonce de l’arrivée de ggml.ai chez Hugging Face
- ggml.ai, l’équipe fondatrice de
llama.cpp, rejoint Hugging Face afin de préserver un avenir réellement ouvert pour l’IA
- L’objectif est d’élargir et de soutenir les communautés
ggml et llama.cpp, tout en favorisant la croissance continue de l’IA locale
- Les projets de
ggml-org resteront, comme aujourd’hui, open source et pilotés par la communauté
- L’équipe ggml continuera d’assurer à temps plein la maintenance et la gestion de
ggml, llama.cpp et des projets open source associés
- Ce nouveau partenariat doit garantir la durabilité à long terme des projets et offrir de nouvelles opportunités aux utilisateurs comme aux contributeurs
- Une meilleure intégration avec la bibliothèque
transformers de Hugging Face est prévue afin d’améliorer la qualité de la prise en charge des modèles
Contexte et déroulement de la collaboration
- Depuis sa création en 2023, ggml.ai soutient le développement et l’adoption de la bibliothèque de machine learning
ggml
- Au cours des trois dernières années, une petite équipe a fait grandir la communauté open source et a contribué à faire de
ggml le standard de l’inférence IA locale efficace
- Dans ce processus, Hugging Face a été le partenaire de collaboration le plus solide
- Des ingénieurs de HF ont contribué à des fonctionnalités clés dans
ggml et llama.cpp, ajouté la prise en charge multimodale, intégré Inference Endpoints et amélioré la compatibilité avec le format GGUF, entre autres
- La coopération entre les deux parties s’est révélée efficace, et comme toute la communauté en a bénéficié, cette arrivée officialise cette collaboration
Évolutions pour les projets open source et la communauté
- Le mode de fonctionnement de
ggml et llama.cpp ne change pas
- L’équipe reste pleinement engagée dans la maintenance des projets, et la communauté conserve son autonomie dans les décisions techniques et structurelles
- Hugging Face apportera des ressources durables pour renforcer le potentiel de croissance des projets
- Les projets resteront 100 % open source, et la rapidité de prise en charge de la quantization après la sortie des modèles devrait aussi s’améliorer
Axes techniques
- Deux orientations clés ont été définies pour la suite
- Une intégration en un clic avec Hugging Face transformers
transformers s’est imposé comme le standard de définition des modèles d’IA, et l’amélioration de la compatibilité entre les deux écosystèmes est essentielle pour élargir la prise en charge des modèles et assurer la qualité
- Amélioration du packaging et de l’expérience utilisateur des logiciels basés sur ggml
- À mesure que l’inférence locale s’impose comme une alternative à l’inférence cloud, il devient nécessaire de simplifier le déploiement des modèles et leur accessibilité pour les utilisateurs ordinaires
- L’objectif est de faire de
llama.cpp un outil universel et utilisable partout
Vision à long terme
- ggml.ai et Hugging Face ont pour objectif commun de construire une superintelligence open source accessible dans le monde entier
- Avec la communauté de l’IA locale, ils comptent continuer à développer une pile d’inférence efficace afin d’obtenir les meilleures performances possibles, y compris sur les appareils personnels
Réactions de la communauté
- Des membres des communautés Hugging Face et ggml ont laissé de nombreux messages de félicitations et d’enthousiasme
- Réactions positives du type : « une grande avancée pour l’écosystème de l’IA locale » ou « une nouvelle importante pour l’écosystème de l’IA ouverte »
- Certains utilisateurs ont demandé des explications plus claires sur l’indépendance du projet et la propriété du code
- D’autres ont aussi exprimé des inquiétudes quant aux changements de juridiction liés à une acquisition par une entreprise et à la transparence open source
- Dans l’ensemble, la communauté considère cette collaboration comme un socle pour la croissance durable de l’IA locale
Aucun commentaire pour le moment.