2 points par GN⁺ 2026-02-09 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Assistant IA local exécuté en Rust : fonctionne entièrement sur l’appareil personnel sans connexion Internet, sans transmettre les données vers l’extérieur
  • Architecture en exécutable unique : peut être lancé sans installer Node.js, Docker ou Python, sous la forme d’un binaire léger d’environ 27 Mo
  • Système de mémoire persistante : offre une mémoire de long terme et des fonctions de recherche grâce à un dépôt de connaissances basé sur Markdown, SQLite FTS5 et la recherche sémantique
  • Prend en charge à la fois CLI, interface web et GUI desktop, et est compatible avec plusieurs fournisseurs de LLM comme OpenAI, Anthropic et Ollama
  • Compatible avec le format OpenClaw, permettant d’exécuter des tâches autonomes à l’aide des fichiers SOUL, MEMORY et HEARTBEAT

Aperçu

  • LocalGPT est un assistant IA centré sur l’appareil local, une application basée sur Rust dotée d’une mémoire persistante et de capacités de travail autonome
    • Exécution complète sur l’appareil personnel sans dépendre de serveurs externes
    • Inspiré du projet OpenClaw tout en conservant la compatibilité
  • L’installation est possible avec la commande cargo install localgpt, avec au choix l’inclusion de l’interface graphique ou le mode headless

Principales fonctionnalités

  • Architecture à binaire unique ne nécessitant ni Node.js, ni Docker, ni Python
  • Conservation locale des données : toute la mémoire et les paramètres sont stockés sur l’appareil de l’utilisateur
  • Mémoire persistante : utilise un dépôt de connaissances fondé sur des fichiers Markdown, avec prise en charge de la recherche rapide et de la recherche sémantique via SQLite FTS5 et sqlite-vec
  • Fonction heartbeat autonome permettant d’exécuter des tâches en arrière-plan
  • Interfaces variées : CLI, interface web et GUI desktop
  • Prise en charge de plusieurs LLM : compatible avec Anthropic (Claude), OpenAI, Ollama, etc.

Fonctionnement

  • La mémoire est stockée dans le répertoire ~/.localgpt/workspace/, avec la structure principale suivante
    • MEMORY.md : stockage des connaissances de long terme
    • HEARTBEAT.md : file de tâches autonomes
    • SOUL.md : personnalité et consignes de comportement
    • knowledge/ : dépôt de connaissances structuré par sujet
  • Recherche par mots-clés avec SQLite FTS5, et recherche sémantique locale basée sur des embeddings avec sqlite-vec

Configuration et commandes CLI

  • Le fichier de configuration est stocké dans ~/.localgpt/config.toml et permet de définir le modèle par défaut, les clés API, l’intervalle du heartbeat, les plages horaires de travail, etc.
  • Principales commandes CLI
    • localgpt chat : démarrer une session de conversation
    • localgpt ask "질문" : exécuter une requête unique
    • localgpt daemon start : lancer le démon en arrière-plan
    • localgpt memory search "query" : rechercher dans la mémoire
    • localgpt config init : générer la configuration par défaut

HTTP API

  • Une REST API est fournie lorsque le démon est en cours d’exécution
    • GET /health : vérifier l’état
    • POST /api/chat : requête de conversation
    • GET /api/memory/search?q=<query> : recherche dans la mémoire
    • GET /api/memory/stats : consulter les statistiques de mémoire

Stack technique

  • Basé sur Rust, Tokio, Axum, SQLite (FTS5 + sqlite-vec), fastembed et eframe
  • Distribué sous licence Apache-2.0, avec environ 93 % du code écrit en Rust

Autres informations

  • Sur GitHub, le projet compte environ 646 étoiles et 39 forks
  • Le billet de blog “Why I Built LocalGPT in 4 Nights” détaille le processus de développement et l’historique commit par commit
  • Les principaux contributeurs identifiés sont au nombre de quatre : Yi Wang, Claude, objectkit et Ax73

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.