- Le modèle Sweep Next-Edit de 1,5B de paramètres prédit la prochaine modification de code de l’utilisateur afin de fournir une fonction d’autocomplétion
- Il s’exécute en environnement local avec une latence inférieure à 500 ms et affiche des performances supérieures à celles de modèles plus de 4 fois plus grands
- Il est proposé au format de quantification Q8_0 GGUF, et prend en charge une longueur de contexte de 8192 tokens même dans une version allégée
- Il est basé sur Qwen2.5-Coder et peut être intégré à un plugin JetBrains
- Publié sous licence Apache 2.0, c’est un modèle utile pour l’expérimentation et l’intégration pour les développeurs IA open source
Présentation du modèle
- Sweep Next-Edit 1.5B est un modèle de prédiction next-edit pour l’autocomplétion de code
- Il anticipe et propose la prochaine modification avant que l’utilisateur ne change le code
- Il peut fonctionner avec une latence inférieure à 500 ms même sur un ordinateur portable en local
- Il offre un temps de réponse rapide grâce au speculative decoding
- Il a obtenu, sur les benchmarks next-edit, des performances supérieures à celles de modèles plus de 4 fois plus grands
Détails du modèle
- Nombre de paramètres : 1,5B
- Format : GGUF (quantification Q8_0)
- Longueur de contexte : 8192 tokens
- Modèle de base : Qwen2.5-Coder
- Licence : Apache 2.0
Utilisation
- Téléchargez
run_model.py et le fichier du modèle, puis exécutez-les
- L’architecture est centrée sur une exécution locale, sans fournisseur d’inférence cloud séparé
Aucun commentaire pour le moment.