20 points par GN⁺ 2025-10-02 | 1 commentaires | Partager sur WhatsApp
  • Claude Code a évolué au-delà d’un simple outil de codage pour devenir un véritable système d’exploitation pour agents, un système innovant qui prend en charge divers workflows grâce à l’accès au système de fichiers et à l’intégration des commandes Unix
  • En particulier, son intégration avec le système de notes Obsidian automatise la prise de notes, la recherche et l’organisation de la pensée, et, via une connexion SSH, met en place un système d’exploitation complet pour les notes, accessible même sur mobile
  • La fonction d’accès au système de fichiers est l’élément de différenciation central : elle permet de conserver mémoire et état d’une conversation à l’autre, résolvant ainsi les limites fatales de ChatGPT ou de Claude dans le navigateur, à savoir les contraintes de fenêtre de contexte et les limites de mémoire
  • La philosophie Unix (simplicité, composabilité, traitement de flux de texte) correspond parfaitement à la manière dont les LLM utilisent les outils, au point que des principes de conception vieux de 50 ans sont redécouverts comme l’architecture optimale pour les systèmes d’IA modernes
  • À travers des cas d’usage concrets comme l’automatisation de la gestion des e-mails (Inbox Magic) ou des outils open source (Claudesidian), l’article souligne que les systèmes d’agents fondés sur le système de fichiers constituent une base plus fiable et plus facile à déboguer pour construire des applications d’IA que des architectures multi-agents complexes

Ce qui rend Claude Code spécial

  • Dernièrement, dans mes conversations sur l’IA, je n’ai cessé de vanter les capacités étonnantes de Claude Code, en expliquant que cet outil était passé du simple assistant de programmation à un véritable système d’exploitation pour agents
  • L’intégration avec l’application de prise de notes Obsidian est particulièrement essentielle : contrairement à Notion ou Evernote, Obsidian stocke tous les fichiers sur le disque local sous forme de fichiers Markdown ordinaires
    • Cette caractéristique en a fait une cible idéale pour les outils de codage assistés par IA ; j’ai commencé avec Cursor avant de passer rapidement à Claude Code
    • Je suis devenu tellement dépendant de ce système que j’ai fini par installer un serveur chez moi, puis par y accéder en SSH depuis mon smartphone, afin de pouvoir écrire des notes, les lire et organiser mes idées même en déplacement
  • Il y a quelques semaines, j’ai participé au podcast AI & I de Dan Shipper pour présenter ce système en profondeur, et dans cet article, je partage des insights supplémentaires découverts depuis

Pourquoi Claude Code surpasse Cursor

  • Il m’était difficile de répondre à la question « Pourquoi Claude Code est-il spécial ? », mais j’en suis arrivé à la conclusion que ce n’est pas tant qu’il soit meilleur que Cursor sur tous les plans : c’est plutôt la combinaison de certains éléments qui fonctionne remarquablement bien
  • Ces derniers temps, je l’utilise davantage pour construire quelque chose d’entièrement nouveau sur les capacités de Claude Code que pour travailler sur des bases de code existantes
  • Une harmonie parfaite avec la philosophie Unix

    • Le secret de Claude Code réside dans son approche des outils : en tant qu’application en ligne de commande, il renonce à une certaine accessibilité, mais offre en contrepartie une capacité puissante, l’intégration native des commandes Unix
    • La philosophie Unix a été documentée par Doug McIlroy en 1978 dans le Bell System Technical Journal, où il a présenté quatre principes fondamentaux :
      • 1. Faire en sorte que chaque programme fasse bien une seule chose. Pour une nouvelle tâche, construire un nouveau programme plutôt que d’ajouter des fonctions à un programme existant
      • 2. Considérer que la sortie de chaque programme pourra devenir l’entrée d’un autre programme encore inconnu
      • 3. Concevoir et construire les logiciels pour qu’ils puissent être essayés tôt, idéalement en quelques semaines
      • 4. Utiliser des outils pour alléger le travail de programmation plutôt que de s’appuyer sur de la main-d’œuvre peu qualifiée
    • Version résumée par Peter H. Salus dans « A Quarter-Century of Unix » en 1994 :
      • Écrire des programmes qui font bien une seule chose
      • Écrire des programmes qui fonctionnent ensemble
      • Écrire des programmes qui traitent des flux de texte (car il s’agit d’une interface universelle)
  • Une affinité parfaite entre LLM et commandes Unix

    • Ces principes vieux de 50 ans correspondent exactement à la manière dont les LLM utilisent les outils
    • Les modèles enchaînent continuellement des sorties vers des entrées, « en les passant dans des pipes » (avec leur propre logique intermédiaire), reliant la sortie d’une commande à l’entrée d’une autre, comme avec la commande Unix |
    • Lorsque les modèles n’arrivent pas à combiner efficacement des outils, c’est presque toujours parce que les outils sont trop complexes
    • Première raison pour laquelle Claude Code est impressionnant : les commandes qui font tourner Unix sont parfaitement adaptées à l’usage par les LLM
      • Non seulement les commandes sont simples, mais elles sont aussi extrêmement bien documentées, ce qui a fourni aux modèles beaucoup de matière d’apprentissage
  • La révolution de l’accès au système de fichiers

    • L’autre élément, c’est la capacité de Claude Code à écrire du code et, plus récemment, de la prose
    • J’ai trouvé la réponse en lisant l’analyse approfondie de la construction de Claude Code par Pragmatic Engineer : l’accès au système de fichiers
    • Le système de fichiers change tout
      • Les deux défauts fatals de ChatGPT et de Claude dans le navigateur : l’absence de mémoire entre les conversations et l’étroitesse de la fenêtre de contexte
      • Le système de fichiers résout les deux : Claude Code peut s’écrire des notes, accumuler des connaissances et maintenir des agrégats en cours d’exécution
      • Il dispose d’un état et d’une mémoire, et peut raisonner au-delà d’une conversation unique

AI Overhang

  • Lorsque j’ai utilisé pour la première fois l’API GPT-3 en 2022, j’avais prédit qu’il faudrait 10 ans pour découvrir les cas d’usage, même si les modèles ne progressaient pas au-delà de ce moment-là
  • Les modèles se sont effectivement améliorés (les modèles de raisonnement ont rendu les appels d’outils fiables), et la découverte du système de fichiers confirme cette idée
  • Dans l’interview de Pragmatic Engineer, Boris Cherney, qui a construit une première version de Claude Code, l’explique à l’aide du concept de « product overhang » :
    • Le product overhang désigne le cas où un modèle est capable d’effectuer une certaine tâche, mais où le produit dans lequel l’IA s’exécute n’a pas été conçu pour capter cette capacité
    • Les modèles pouvaient déjà explorer le système de fichiers ; il n’existait simplement aucun produit construit autour de cette capacité
  • L’auteur soutient que c’est la combinaison système de fichiers + commandes Unix, mais le cœur du sujet est que la capacité du modèle existait déjà et n’attendait que d’être réveillée
  • Claude Code sert de plan pour construire des systèmes d’agents fiables parce qu’il capte les capacités du modèle, au lieu de les restreindre par des interfaces surconçues

Au-delà du code

Le projet open source Claudesidian

  • J’ai parlé de ma configuration Claude Code + Obsidian, et je suis en fait allé plus loin en publiant en open source « Claudesidian »
    • Il inclut de nombreux outils et commandes utilisés dans ma configuration Claude Code + Obsidian
    • Je m’en suis servi comme terrain d’expérimentation, notamment pour construire un outil de mise à niveau initiale
    • Lorsqu’un changement survient au centre, je peux le rapatrier dans mon Claudesidian ; l’IA vérifie alors si les fichiers mis à jour ont été modifiés et, si c’est le cas, tente de fusionner intelligemment la nouvelle mise à jour avec ces changements
  • Les deux projets suivent les mêmes principes de la philosophie Unix : des outils simples, composables, qui font bien une seule chose et fonctionnent ensemble

Inbox Magic - système d’automatisation des e-mails

  • Je travaille actuellement sur un projet appelé « Inbox Magic » (je trouverai un meilleur nom), que je ne suis pas encore prêt à lancer mais que je publierai bientôt
  • Il s’agit d’un dépôt Claude Code ayant accès à une boîte à outils Gmail, avec de nombreux prompts et commandes, afin de se comporter comme un assistant e-mail
  • Les fonctions actuelles sont assez simples :
    • Exécuter des recherches ou envoyer des e-mails à la place de l’utilisateur
    • Effectuer un entraînement complet pour classer les e-mails et apprendre le style de rédaction des e-mails
    • Claude Code et ChatGPT peuvent tous deux accéder aux e-mails, mais en général ils n’en récupèrent qu’un ou deux à la fois
    • Ce système peut écrire dans des fichiers et utiliser diverses astuces, ce qui permet d’effectuer des tâches comme : « trouver tous les e-mails liés aux voyages dans la boîte de réception, construire un profil des habitudes de voyage, puis l’utiliser comme prompt pour que ChatGPT/Claude fasse des recherches de voyage conformes aux préférences réelles »
  • Si vous voulez le tester, envoyez-moi votre identifiant GitHub et je le partagerai dès qu’il sera prêt à être testé

Enseignements clés

  • En général, j’évite les conclusions, mais il y a ici plusieurs leçons qui méritent d’être réaffirmées :
  • 1. Le système de fichiers est un excellent outil pour compenser le manque de mémoire et d’état des LLM, et il devrait être utilisé plus souvent
  • 2. Pour que les appels d’outils fonctionnent, il faut se concentrer sur la philosophie Unix
  • 3. Claude Code représente le plan directeur des futurs systèmes d’agents
    • La combinaison système de fichiers + philosophie Unix devrait servir de modèle pour construire des agents IA fiables et faciles à déboguer, plutôt que les systèmes multi-agents complexes qui circulent aujourd’hui
    • D’un point de vue tactique, lorsqu’on construit des appels d’outils pour son propre projet, l’essentiel est de rester simple et de laisser le thread principal du modèle les « pipeliner »
    • Le grand problème à résoudre pour tous les agents/chatbots : la capacité à faire du piping sans passer par la fenêtre de contexte
  • 4. Les personnes qui ne trouvent pas de cas d’usage aux LLM ne font tout simplement pas assez d’efforts

1 commentaires

 
GN⁺ 2025-10-02
Avis Hacker News
  • J’aime vraiment le fait que Claude Code fonctionne à la manière Unix : on peut facilement créer d’autres outils de style Unix et Claude peut les utiliser immédiatement sans travail d’intégration supplémentaire ; il suffit de lui donner la page de manuel de l’outil pour qu’il s’en serve avec aisance, sans MCP ni définitions d’outils complexes ; cela fonctionne aussi sans problème avec l’outil d’accès au navigateur que j’ai développé moi-même

    • J’ai récemment mis à jour Mansnip, un outil conçu pour mieux rechercher dans les man pages à l’ère des LLM ; je pense que ce serait aussi une bonne idée de l’envelopper dans un MCP STDIO ; ce serait bien d’ajouter une API à ce code et de mettre aussi le serveur sur pip ; ça n’a pas l’air si difficile

    • Je suis curieux de savoir comment Claude Code utilise le navigateur depuis mes scripts ou mes outils ; j’aimerais manipuler directement les fenêtres de session Safari existantes, mais la plupart des solutions ne gèrent que Chrome ou une nouvelle instance séparée

    • J’ai eu un moment de déclic en réalisant qu’au lieu de demander directement à Claude de trouver les problèmes, il était bien plus efficace de lui expliquer comment utiliser un linter ; même sans lui dire précisément lequel utiliser, il a exploité immédiatement la liste que je lui ai donnée une fois installée ; quand j’essayais de coder avec ChatGPT, il fallait fournir beaucoup trop d’efforts pour obtenir des résultats utiles, donc je n’en attendais pas grand-chose, mais avec Claude Code, l’expérience est vraiment étonnante

  • Toutes les applications GUI sont différentes et existent comme des châteaux qui érigent chacun leurs propres murs, comme des fiefs isolés à l’intérieur de l’OS ; à l’inverse, la CLI est une place publique commune où tout le monde se retrouve, un marché de l’information où données et signaux circulent ; on n’a même pas besoin d’un sentiment d’appartenance pour y entrer ; côté GUI, ce qui s’en rapproche le plus, c’est Smalltalk, mais même là il faut d’abord prêter allégeance pour pouvoir entrer

    • En réalité, il existe aussi côté GUI des systèmes avec une assez forte interopérabilité et composabilité, comme NextSTEP ou dbus ; si on le souhaite, on peut aussi construire une GUI sur la base d’une API publique, avec seulement une couche graphique par-dessus ; c’est rare, mais techniquement possible

    • Même si cela peut ressembler à une forteresse enfermée dans l’OS, du point de vue de l’utilisateur lambda, les applications GUI restent largement préférées aux applications CLI ; s’il n’y avait eu que la CLI, l’adoption de l’informatique aurait été bien plus lente

  • Ce n’est pas parce qu’un nouvel outil prometteur s’exécute dans le terminal qu’il devient automatiquement « une véritable mise en œuvre de la philosophie UNIX » ; cette comparaison n’a tout simplement pas de sens ; je me suis moi aussi fait piéger par un titre putaclic façon Hacker News

    • La philosophie UNIX évoquée ici ne désigne pas simplement des applications terminal ; l’important, c’est que les LLM modernes puissent exécuter directement des commandes shell, ce qui les place à un stade où ils peuvent accomplir presque tout ce qu’un humain peut faire dans un shell

    • Si l’on regarde le cœur de la philosophie UNIX : 1) de petits programmes qui ne font qu’une seule chose, 2) qui peuvent se combiner pour réaliser des tâches plus complexes, 3) en utilisant les flux de texte comme interface universelle ; tout cela s’accorde extrêmement bien avec les LLM ; grâce à une interface texte unique comme exec(), tous les outils opèrent sur des fichiers et peuvent faire de l’entrée/sortie en texte, ce qui les rend immédiatement exploitables par les LLM ; cette architecture logicielle n’avait rien d’inévitable, mais telle qu’elle a été construite, elle convient parfaitement aux LLM

    • Même les trois commentaires les mieux classés donnent l’impression d’avoir été écrits parce qu’un LLM leur a demandé de faire leur autopromotion

  • Pendant un temps, on a beaucoup entendu dire que la CLI avait disparu, mais récemment, avec des outils comme claude code, la CLI est au contraire devenue une interface supérieure ; je ne cherche pas à en faire un affrontement avec qui que ce soit, mais ce renversement de situation est intéressant

    • En réalité, du point de vue des utilisateurs expérimentés, y compris les développeurs, je n’ai jamais entendu « CLI is dead » ; pour le grand public, l’arrivée des GUI a peut-être donné l’impression que la CLI avait disparu, mais en pratique elle a toujours existé en arrière-plan ; OS X a fourni un vrai shell Unix, Windows a PowerShell, et Linux domine carrément le marché des serveurs

    • Je construis aussi moi-même des interfaces GUI personnalisées ; je façonne carrément tout un environnement de bureau selon ma manière préférée d’utiliser un ordinateur ; avant, j’utilisais souvent le terminal parce que les outils GUI grand public étaient peu pratiques, mais aujourd’hui mon environnement UI s’améliore progressivement

  • La combinaison de Claude et Obsidian crée un workflow remarquablement bon ; je confie à l’IA toutes les tâches répétitives de gestion de notes ; j’accumule des notes quotidiennes en mode flux de conscience, puis j’en extrais de nouvelles idées, des projets et des ressources ; Gemini fonctionne aussi très bien

  • Dans l’intégration entre LLM et Obsidian, il faut absolument mentionner les plugins ; les plugins Obsidian sont faciles à personnaliser, et on peut faire tourner des scripts JavaScript depuis un dossier local ; Claude Code excelle à écrire et modifier ce type de plugin ; par exemple, j’ai créé un programme sur mesure qui synchronise automatiquement les fichiers Obsidian vers un repo GitHub selon un indicateur de publication, ce qui fait que lorsque je mets à jour mes notes, Netlify met immédiatement mon site web à jour

  • L’auteur serait peut-être mieux servi par un service comme omnara.com, qui permet un accès direct depuis un téléphone sans SSH ; j’utilise un environnement similaire avec Obsidian et Claude Code tournant en headless en permanence, accessibles directement via une app mobile

  • J’aimerais utiliser Claude Code, mais comme je ne sais pas exactement quelle quantité de données locales et de fichiers est envoyée sur le réseau, son adoption reste difficile dans certains contextes

  • J’ai moi-même implémenté via MCP une fonctionnalité comme celle-ci
    { "name": "unshare_exec", "description": "exécuter un binaire dans un espace de noms Linux avec unshare", "inputSchema": { "type": "object", "properties": { "binary": {"type": "string"}, "args": {"type": "array", "items": {"type": "string"}} }, "required": ["binary"], "additionalProperties": false } }
    Au début, je n’utilisais que unshare, puis il y a eu pas mal de yak shaving, mais au final j’ai obtenu des résultats impressionnants en pouvant exécuter gemma3 en local tout en lançant librement des utilitaires basés sur Debian

    • Je me demande si tu pourrais partager les poils de ce yak-là, c’est-à-dire la préparation que tu as faite ; les expériences de LLM local que j’ai essayées jusqu’ici ne m’ont pas vraiment satisfait
  • Je veux un environnement entièrement local avec Obsidian, un LLM local, et où tout soit open source ; c’est le futur que j’espère

    • Avec les LLM, l’utilité et la valeur des programmes open source augmentent encore ; auparavant, même lorsqu’un logiciel était open source, il était difficile de s’approprier sa structure de code et donc de le modifier soi-même facilement ; désormais, avec l’aide des LLM, il devient bien plus simple de faire de petits patchs ou d’ajouter des fonctionnalités ; autrement dit, il faut que le programme soit open source pour pouvoir l’adapter à ses besoins, et ce point n’a jamais été aussi important

    • Les open weights ne suffisent pas ; il faut aussi pouvoir accéder aux jeux de données et aux pipelines d’entraînement pour que cela ait un vrai sens ; bien sûr, le grand public n’aura sans doute pas l’infrastructure nécessaire pour exécuter lui-même les pipelines d’entraînement, mais il faut pouvoir savoir de manière transparente comment les données sont utilisées et comment le modèle est entraîné pour parler de véritable maîtrise et d’évaluation des biais

    • Un Org mode local, un LLM local, le tout orchestré par Emacs, dans un environnement entièrement propulsé par des logiciels libres : ce serait fantastique ; si je prends ma retraite et que j’ai du temps, c’est un rêve que j’aimerais vraiment tenter

    • Si cela t’intéresse, je recommande cet article : https://laurentcazanove.com/blog/obsidian-rag-api

    • Je me demande s’il est réellement possible, en pratique, de faire tourner localement des modèles d’une taille vraiment utilisable, surtout sur une machine de développement avec 64 Go de RAM et une seule GPU