- Assistant IA local exécuté en Rust : fonctionne entièrement sur l’appareil personnel sans connexion Internet, sans transmettre les données vers l’extérieur
- Architecture en exécutable unique : peut être lancé sans installer Node.js, Docker ou Python, sous la forme d’un binaire léger d’environ 27 Mo
- Système de mémoire persistante : offre une mémoire de long terme et des fonctions de recherche grâce à un dépôt de connaissances basé sur Markdown, SQLite FTS5 et la recherche sémantique
- Prend en charge à la fois CLI, interface web et GUI desktop, et est compatible avec plusieurs fournisseurs de LLM comme OpenAI, Anthropic et Ollama
- Compatible avec le format OpenClaw, permettant d’exécuter des tâches autonomes à l’aide des fichiers SOUL, MEMORY et HEARTBEAT
Aperçu
- LocalGPT est un assistant IA centré sur l’appareil local, une application basée sur Rust dotée d’une mémoire persistante et de capacités de travail autonome
- Exécution complète sur l’appareil personnel sans dépendre de serveurs externes
- Inspiré du projet OpenClaw tout en conservant la compatibilité
- L’installation est possible avec la commande
cargo install localgpt, avec au choix l’inclusion de l’interface graphique ou le mode headless
Principales fonctionnalités
- Architecture à binaire unique ne nécessitant ni Node.js, ni Docker, ni Python
- Conservation locale des données : toute la mémoire et les paramètres sont stockés sur l’appareil de l’utilisateur
- Mémoire persistante : utilise un dépôt de connaissances fondé sur des fichiers Markdown, avec prise en charge de la recherche rapide et de la recherche sémantique via SQLite FTS5 et sqlite-vec
- Fonction heartbeat autonome permettant d’exécuter des tâches en arrière-plan
- Interfaces variées : CLI, interface web et GUI desktop
- Prise en charge de plusieurs LLM : compatible avec Anthropic (Claude), OpenAI, Ollama, etc.
Fonctionnement
- La mémoire est stockée dans le répertoire
~/.localgpt/workspace/, avec la structure principale suivante
MEMORY.md : stockage des connaissances de long terme
HEARTBEAT.md : file de tâches autonomes
SOUL.md : personnalité et consignes de comportement
knowledge/ : dépôt de connaissances structuré par sujet
- Recherche par mots-clés avec SQLite FTS5, et recherche sémantique locale basée sur des embeddings avec sqlite-vec
Configuration et commandes CLI
- Le fichier de configuration est stocké dans
~/.localgpt/config.toml et permet de définir le modèle par défaut, les clés API, l’intervalle du heartbeat, les plages horaires de travail, etc.
- Principales commandes CLI
localgpt chat : démarrer une session de conversation
localgpt ask "질문" : exécuter une requête unique
localgpt daemon start : lancer le démon en arrière-plan
localgpt memory search "query" : rechercher dans la mémoire
localgpt config init : générer la configuration par défaut
HTTP API
- Une REST API est fournie lorsque le démon est en cours d’exécution
GET /health : vérifier l’état
POST /api/chat : requête de conversation
GET /api/memory/search?q=<query> : recherche dans la mémoire
GET /api/memory/stats : consulter les statistiques de mémoire
Stack technique
- Basé sur Rust, Tokio, Axum, SQLite (FTS5 + sqlite-vec), fastembed et eframe
- Distribué sous licence Apache-2.0, avec environ 93 % du code écrit en Rust
Autres informations
- Sur GitHub, le projet compte environ 646 étoiles et 39 forks
- Le billet de blog “Why I Built LocalGPT in 4 Nights” détaille le processus de développement et l’historique commit par commit
- Les principaux contributeurs identifiés sont au nombre de quatre : Yi Wang, Claude, objectkit et Ax73
Aucun commentaire pour le moment.