22 points par GN⁺ 5 일 전 | 2 commentaires | Partager sur WhatsApp
  • Application de bureau destinée à gérer une base de connaissances en markdown sur Mac et Linux, pensée aussi bien pour un second brain personnel que pour l’organisation de documents d’entreprise en contexte pour l’IA
  • Repose sur une architecture Files-first et Git-first : les notes sont traitées comme des fichiers markdown ordinaires et des dépôts git, ce qui préserve la portabilité des données et l’historique complet des versions sans export
  • Met en avant le principe Offline-first, zero lock-in, avec un fonctionnement entièrement hors ligne et une propriété des données centrée sur l’utilisateur, sans compte, abonnement ni dépendance au cloud
  • Suit le principe Types as lenses, not schemas, en utilisant les types comme outils d’exploration plutôt que comme schémas contraignants, et adopte une approche AI-first but not AI-only avec prise en charge de Claude Code et Codex CLI
  • Les fonctionnalités ont été ajoutées à partir de problèmes rencontrés en exploitant réellement des workspaces de plus de 10 000 notes, et l’application open source basée sur Tauri, React et TypeScript montre une conception orientée usage réel

Présentation de Tolaria

  • Tolaria est une application de bureau centrée sur la gestion de bases de connaissances en markdown sur Mac et Linux ; elle est conçue pour un second brain personnel, pour organiser des documents d’entreprise en contexte exploitable par l’IA, ainsi que pour le stockage de mémoire et de procédures d’OpenClaw et d’assistants
  • Elle a été créée dans le cadre de l’exploitation réelle de workspaces de plus de 10 000 notes, et chaque fonctionnalité a été ajoutée pour résoudre des problèmes rencontrés en situation réelle
  • De courtes ressources présentant le flux d’utilisation sont également fournies

Principes clés

  • Suit le principe Files-first : les notes sont enregistrées comme des fichiers markdown ordinaires
    • Les données restent portables et peuvent être utilisées avec n’importe quel éditeur
    • Aucune étape d’export n’est nécessaire, et la propriété des données reste entre les mains de l’utilisateur plutôt que de l’application
  • Adopte une architecture Git-first qui traite chaque vault comme un dépôt git
    • Cela permet de conserver l’historique complet des versions
    • N’importe quel git remote peut être utilisé, sans dépendre des serveurs de Tolaria
  • Met en avant le principe Offline-first, zero lock-in
    • Aucun compte, abonnement ni dépendance au cloud
    • Le vault fonctionne entièrement hors ligne, sans perte de données même si l’on cesse d’utiliser l’application
  • Le projet est publié en open source et proposé gratuitement
  • Repose sur une conception Standards-based, avec des notes au format markdown et YAML frontmatter
    • Aucun format propriétaire n’est utilisé
    • Même en quittant Tolaria, il reste possible de continuer à exploiter ses données avec des outils standard
  • Suit le principe Types as lenses, not schemas, en utilisant les types comme outil d’exploration plutôt que comme schéma imposé
    • Aucun champ obligatoire
    • Aucune validation forcée : les types servent surtout de catégories pour retrouver plus facilement les notes
  • Adopte une approche AI-first but not AI-only
    • Le vault basé sur des fichiers est conçu pour bien s’intégrer avec les agents IA
    • Claude Code et Codex CLI sont actuellement pris en charge
    • D’autres IA peuvent aussi modifier le vault, et des fichiers AGENTS sont fournis pour faciliter l’usage par les agents
  • Met l’accent sur une ergonomie Keyboard-first
    • Vise les power users qui privilégient le travail au clavier
    • Ce principe se reflète aussi dans la conception de l’éditeur et de la Command Palette

Architecture et implémentation

  • Tolaria est développé avec Tauri, React, TypeScript
  • La documentation de développement pour l’exécution locale et la contribution est fournie séparément
  • Un ensemble de documents techniques est également disponible

Prise en main

  • La dernière version distribuée peut être téléchargée depuis la latest release
  • Au premier lancement, il est proposé de cloner le getting started vault, ce qui permet de parcourir le fonctionnement complet de l’application

Environnement de développement

  • Les prérequis pour le développement local sont Node.js 20+, pnpm 8+, Rust stable, ainsi qu’un environnement de développement macOS ou Linux
  • Sous Linux, WebKit2GTK 4.1 et GTK 3 sont nécessaires pour exécuter Tauri 2
    • Des exemples d’installation des dépendances système sont inclus pour Arch / Manjaro, Debian / Ubuntu 22.04+ et Fedora 38+
  • Le serveur MCP inclus exécute le binaire système node dans l’environnement d’exécution Linux ; pour utiliser des flux avec des outils IA externes, il faut donc installer Node via le gestionnaire de paquets de la distribution
  • Des commandes de démarrage rapide sont également fournies
    • pnpm install
    • pnpm dev
    • Le mode mock basé sur navigateur s’ouvre sur http://localhost:5173
    • L’application desktop native peut être lancée avec pnpm tauri dev

Sécurité et licence

  • La licence est AGPL-3.0-or-later
  • Le nom et le logo Tolaria sont soumis à la trademark policy du projet

2 commentaires

 
tested 2 일 전

Feuille de route https://tolaria.canny.io/

 
GN⁺ 5 일 전
Avis sur Hacker News
  • J’aime vraiment beaucoup. On dirait tout ce que je voulais dans Obsidian, avec les plugins en plus, mais rassemblé dans une seule application bien conçue, donc c’est excellent
    J’ai aussi un retour. J’aimerais que ça reste open source, mais que tu trouves un moyen de le monétiser pour pouvoir développer ça à plein temps. S’il y avait une version officielle de l’app séparée, je serais tout à fait prêt à payer
    Et j’espère vraiment que tu éviteras la surcharge fonctionnelle. J’adore le design simple de Bear App, mais je l’ai finalement quitté parce qu’on ne peut pas manipuler directement les fichiers markdown. Des apps comme Obsidian, Notion ou Craft continuent d’ajouter des fonctions, alors qu’ici on a déjà l’air d’avoir toutes les fonctions essentielles. J’aimerais que ça reste concentré sur le fait de faire l’essentiel extrêmement bien, comme Bear

    • J’aime vraiment beaucoup Bear. C’est une app qui a eu une grande influence sur Tolaria, donc c’est sans doute aussi pour ça que ça t’a plu
      Merci pour ce bon retour
  • J’ai raté l’occasion de le faire avant toi d’un jour. Mais bravo Luca, vraiment. L’outil a l’air très bien, je suis justement en train de l’essayer
    Moi, je développe Sig de https://github.com/adamjramirez/sig-releases, et il y a clairement un chevauchement structurel. macOS, markdown pur, gestion de versions avec git, et conception pensée pour le contexte des agents IA : on a ça en commun
    La différence, c’est le point de départ du workflow. Tolaria semble fort pour organiser des connaissances déjà existantes, alors que Sig essaie de résoudre l’étape d’avant : comment faire sortir les connaissances qu’on a en tête vers des fichiers. En pratique, ce qui détermine souvent la qualité des sorties IA, c’est ce qui n’est pas documenté. Une décision prise cinq minutes avant une réunion, une promesse orale sans suivi, ou le sens réel que j’ai tiré d’une conversation, plutôt que son contenu de surface
    La capture dans Sig a deux couches. 1) d’abord le relevé des faits, 2) puis mon interprétation personnelle par-dessus. Les deux sont stockés en markdown sur ma machine. Quand je suis prêt à les partager dans une base de connaissances d’équipe ou un open brain, je les rends publics de façon explicite à ce moment-là. Par défaut, c’est privé, et l’équipe ne peut les lire que si je le veux

    • Si versionné avec git signifie les fichiers .md eux-mêmes, alors ça m’intéresse immédiatement. Moi aussi je traite des fichiers avec un workflow basé sur git pour indiquer à Claude ce qu’il doit regarder
      Je vais clairement l’essayer
    • Je pense que cette distinction est vraiment juste. Tolaria est comme une bibliothèque et Sig comme un enregistreur de terrain
      On a besoin des deux, mais ils interviennent à des moments différents du workflow
  • En ce moment, on dirait que tout le monde construit son propre système de llm-wiki. J’en ai aussi fait un, avec dedans une grande liste d’autres systèmes de mémoire d’agents : https://zby.github.io/commonplace/agent-memory-systems/
    Je vais ajouter le tien tout de suite
    Aujourd’hui, j’ai aussi compilé une wish list pour ce genre de systèmes à partir des ressources que j’ai rassemblées : https://zby.github.io/commonplace/notes/designing-agent-memory-systems/
    Ce serait super de pouvoir collaborer

    • Si tu rassembles ce genre d’outils, Hjarni mérite aussi d’être dans la catégorie source-only avec Fintool et Supermemory
      il a un SaaS hébergé avec MCP intégré par défaut, des instructions LLM hiérarchiques global/team/container/note, ainsi qu’un protocole de notes partagées pour des workflows multi-agents Claude/ChatGPT. Je peux aussi rédiger une page de présentation au format que tu veux
      J’ai aussi aimé le document de wishlist que tu as lié, et j’aimerais bien travailler dessus avec toi
    • Ça vaudrait aussi le coup d’ajouter ceci à la liste https://github.com/Signet-AI/signetai
      je ne suis pas impliqué, je suis juste en train de le tester
    • J’aimerais qu’il y ait aussi des outils pour neovim dans cette liste
  • Le vide côté capture mobile est bien réel, et c’est sans doute la principale raison pour laquelle ces outils ne deviennent pas des apps de base au quotidien
    Le flux qui marche bien pour moi consiste à configurer une action dans Drafts sur iOS pour ajouter du contenu au fichier inbox.md du jour dans un dépôt git, puis à synchroniser ça avec Working Copy. Les fichiers Markdown sont la source unique de vérité, et n’importe quel outil sur macOS, que ce soit Tolaria ou Obsidian, lit directement le même dépôt, sans étape de conversion
    Il y a quelques ajustements au début, mais le gain est énorme. La capture mobile et l’organisation sur desktop se font sur les mêmes fichiers, au lieu de passer par du copier-coller entre plusieurs apps ou par une étape de sync

    • Ma méthode préférée, c’est Bebop. Je peux l’ouvrir immédiatement et capturer une idée ou une note en un seul tap, et je peux aussi sauvegarder des liens via la feuille de partage
      On peut le configurer pour l’ajouter à la Daily Note d’Obsidian dans un vault iCloud, donc ça s’intègre très bien
      J’aime aussi le fait que ça fonctionne sans service tiers
      ⁽¹⁾ https://apps.apple.com/us/app/bebop-quick-notes/id6477824795
    • Moi aussi, j’ai récemment développé quelque chose de similaire avec une philosophie any device. C’est basé sur un bot Telegram, et comme l’auteur de cette app, j’utilise un dépôt Github privé comme source unique de vérité
      Je m’en sers pour collecter d’abord tout ce qui m’intéresse sur le web
      https://github.com/momentmaker/to
    • Avec OpenClaw, j’ai pratiquement résolu ce problème. Je l’envoie via Telegram, et il me crée une note correcte dans Tolaria, avec des liens vers le contenu existant et les éléments associés
      J’y envoie des liens web ou des liens d’outils à conserver, ainsi que des mémos vocaux à transformer en texte
      Cela dit, je vais clairement faire une version mobile
  • Au final, je reviens souvent à Apple Notes. Ce n’est pas vraiment une base de connaissances ni du markdown à proprement parler, mais la synchronisation entre appareils fonctionne bien et c’est pratique à utiliser sur téléphone
    Je me demande si toi aussi tu ressens ce besoin, ou comment tu consultes tes notes sur mobile

    • J’utilise Apple Notes pour la capture rapide, et tout ce qui mérite d’être conservé, je le copie-colle ensuite sur Mac dans la daily note d’Obsidian ou dans une note spécifique
      Je garde aussi sur la durée des notes comme le suivi du sport ou des repas, en ajoutant simplement des en-têtes datés
      Ça me convient mieux qu’Obsidian mobile, et le simple processus de copier-coller joue aussi naturellement le rôle de filtre
  • J’ai une question sur l’aperçu markdown sur MacBook Pro. Je me demande comment faire pour que le markdown soit rendu dans l’aperçu rapide du Finder, probablement la fonction qu’on appelle Quick Look
    J’ai configuré les fichiers .md pour qu’ils s’ouvrent toujours avec mon IDE, mais dans l’aperçu ils ne sont pas rendus, ce qui est un peu gênant. Dans l’IDE, j’utilise une extension pour le rendu md, donc ça vient peut-être de là. Il est aussi possible qu’un truc du genre appel récursif ne soit pas exposé au niveau de l’extension d’aperçu, mais bref, je me demandais si tu avais une méthode à recommander

  • J’aime vraiment beaucoup l’approche basée sur le markdown ici
    Chez nous aussi, sur https://voiden.md/, on suit presque exactement la même philosophie. offline-first, basé sur des fichiers, avec support git
    Je pense que c’est précisément le type de format que les agents vont assez bien exploiter
    Nous, on l’a construit pour l’API, et c’est aussi open source. On peut le voir ici : https://github.com/VoidenHQ/voiden

  • Ces derniers temps, j’utilisais octarine. Avant ça, j’ai utilisé Obsidian pendant assez longtemps, mais je compte clairement essayer ça aussi
    [1]: https://octarine.app

  • Beau travail. J’ai deux retours
    L’éditeur ne semble pas prendre en charge les littéraux de balises de code. Je n’ai pas réussi à créer un bloc de code en saisissant ```
    Et quand les fichiers markdown deviennent très volumineux, les performances ne sont pas bonnes
    Je développe un éditeur markdown de style Obsidian pour mon produit de base de connaissances IA : https://github.com/kenforthewin/atomic-editor

    • Atomic a l’air assez intéressant, en particulier la synthèse wiki
      Moi aussi, je travaille sur un ensemble de skills et un petit MCP centrés sur l’extraction facile d’"atoms" à partir d’un brain dump rapide. C’est aussi basé sur SQLite + SQLite-vec
      Je contourne le problème du chunking en déclarant chaque section comme un chunk, et pour les brouillons, je fais réécrire la structure en sections par un LLM afin qu’elle se découpe bien. Du coup, il y a plus de redondance et on n’a plus d’expressions comme « comme expliqué plus haut »
      Le lecteur visé n’est pas un humain, mais des agents qui généreront ensuite des textes plus lisibles selon le public cible. Si on suppose que le lecteur est expert, je pense que le coût de production en masse d’atoms validés devient bien plus faible
      J’aimerais vraiment tester ce workflow avec Atomic ou Tolaria
  • Si c’est uniquement pour faire office de visionneuse et que tu ne cherches pas à ajouter un autre éditeur, j’ai créé https://mdview.io
    Ça permet d’ouvrir et de rendre proprement des fichiers Markdown, avec prise en charge des tableaux et de Mermaid. C’est aussi pratique pour partager avec des collègues ou conserver quelque chose pour plus tard