1 points par GN⁺ 2026-02-21 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Afin d’assurer le développement durable de l’écosystème de l’IA locale, ggml.ai, l’équipe fondatrice de llama.cpp, rejoint Hugging Face
  • ggml et llama.cpp continueront d’être gérés de manière open source et centrée sur la communauté, l’équipe assurant leur maintenance et leur support à temps plein
  • Hugging Face prévoit de garantir la pérennité à long terme des projets, tout en se concentrant sur l’amélioration de l’expérience utilisateur et de l’intégration avec transformers
  • Cette collaboration vise à améliorer l’accessibilité et la facilité de déploiement de l’inférence locale (Local Inference), tout en renforçant la prise en charge de diverses architectures de modèles
  • Les deux parties partagent une vision de long terme consistant à construire une superintelligence open source accessible au monde entier

Annonce de l’arrivée de ggml.ai chez Hugging Face

  • ggml.ai, l’équipe fondatrice de llama.cpp, rejoint Hugging Face afin de préserver un avenir réellement ouvert pour l’IA
    • L’objectif est d’élargir et de soutenir les communautés ggml et llama.cpp, tout en favorisant la croissance continue de l’IA locale
  • Les projets de ggml-org resteront, comme aujourd’hui, open source et pilotés par la communauté
  • L’équipe ggml continuera d’assurer à temps plein la maintenance et la gestion de ggml, llama.cpp et des projets open source associés
  • Ce nouveau partenariat doit garantir la durabilité à long terme des projets et offrir de nouvelles opportunités aux utilisateurs comme aux contributeurs
  • Une meilleure intégration avec la bibliothèque transformers de Hugging Face est prévue afin d’améliorer la qualité de la prise en charge des modèles

Contexte et déroulement de la collaboration

  • Depuis sa création en 2023, ggml.ai soutient le développement et l’adoption de la bibliothèque de machine learning ggml
  • Au cours des trois dernières années, une petite équipe a fait grandir la communauté open source et a contribué à faire de ggml le standard de l’inférence IA locale efficace
  • Dans ce processus, Hugging Face a été le partenaire de collaboration le plus solide
    • Des ingénieurs de HF ont contribué à des fonctionnalités clés dans ggml et llama.cpp, ajouté la prise en charge multimodale, intégré Inference Endpoints et amélioré la compatibilité avec le format GGUF, entre autres
  • La coopération entre les deux parties s’est révélée efficace, et comme toute la communauté en a bénéficié, cette arrivée officialise cette collaboration

Évolutions pour les projets open source et la communauté

  • Le mode de fonctionnement de ggml et llama.cpp ne change pas
    • L’équipe reste pleinement engagée dans la maintenance des projets, et la communauté conserve son autonomie dans les décisions techniques et structurelles
  • Hugging Face apportera des ressources durables pour renforcer le potentiel de croissance des projets
  • Les projets resteront 100 % open source, et la rapidité de prise en charge de la quantization après la sortie des modèles devrait aussi s’améliorer

Axes techniques

  • Deux orientations clés ont été définies pour la suite
    • Une intégration en un clic avec Hugging Face transformers
      • transformers s’est imposé comme le standard de définition des modèles d’IA, et l’amélioration de la compatibilité entre les deux écosystèmes est essentielle pour élargir la prise en charge des modèles et assurer la qualité
    • Amélioration du packaging et de l’expérience utilisateur des logiciels basés sur ggml
      • À mesure que l’inférence locale s’impose comme une alternative à l’inférence cloud, il devient nécessaire de simplifier le déploiement des modèles et leur accessibilité pour les utilisateurs ordinaires
      • L’objectif est de faire de llama.cpp un outil universel et utilisable partout

Vision à long terme

  • ggml.ai et Hugging Face ont pour objectif commun de construire une superintelligence open source accessible dans le monde entier
  • Avec la communauté de l’IA locale, ils comptent continuer à développer une pile d’inférence efficace afin d’obtenir les meilleures performances possibles, y compris sur les appareils personnels

Réactions de la communauté

  • Des membres des communautés Hugging Face et ggml ont laissé de nombreux messages de félicitations et d’enthousiasme
    • Réactions positives du type : « une grande avancée pour l’écosystème de l’IA locale » ou « une nouvelle importante pour l’écosystème de l’IA ouverte »
  • Certains utilisateurs ont demandé des explications plus claires sur l’indépendance du projet et la propriété du code
  • D’autres ont aussi exprimé des inquiétudes quant aux changements de juridiction liés à une acquisition par une entreprise et à la transparence open source
  • Dans l’ensemble, la communauté considère cette collaboration comme un socle pour la croissance durable de l’IA locale

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.