- Depuis l’ajout des agents au-dessus des LLM, une couche Claws est apparue au-dessus d’eux pour prendre en charge l’orchestration, la planification, la gestion du contexte, l’appel d’outils et la persistance
- Elle ajoute un niveau d’abstraction à la structure d’exécution des agents afin d’obtenir un niveau plus élevé d’automatisation et de configurabilité
- OpenClaw représente environ 400 000 lignes de code, avec des inquiétudes sur une architecture qui délègue des données personnelles et des clés
- De nombreux risques de sécurité sont apparus : instances exposées, vulnérabilités RCE, compromission de la chaîne d’approvisionnement, cas de skills malveillantes ou corrompues dans le registre
- L’écosystème actuel ressemble à un « Far West » et à un environnement proche du cauchemar en matière de sécurité
- NanoClaw repose sur un moteur central d’environ 4 000 lignes et présente une architecture relativement légère
- Une taille suffisante pour pouvoir tenir mentalement dans son ensemble, avantageuse pour la gestion, l’audit et la flexibilité
- Par défaut, toute exécution se fait dans un environnement conteneurisé
- Au lieu de fichiers de configuration, il adopte une méthode de composition via des skills
- La commande
/add-telegram indique à l’agent comment modifier réellement le code
- Une nouvelle approche fondée sur l’IA qui réduit les fichiers de configuration complexes et les structures de branchement conditionnel
- La stratégie méta consistant à créer un dépôt aussi facile que possible à forker, puis à laisser les skills le transformer en diverses configurations, est excellente
- Plusieurs projets dérivés sont apparus, comme nanobot, zeroclaw, ironclaw et picoclaw
- Il existe aussi des alternatives d’hébergement cloud, mais un environnement local est plus avantageux pour l’expérimentation et l’extension
- Il facilite aussi la connexion à des appareils de domotique basés sur le réseau local
- L’attrait conceptuel d’un agent numérique personnel fonctionnant sur un appareil physique
- Claws s’impose comme une nouvelle couche de la stack IA et définit la structure de l’étape qui suit les agents
- Ma configuration finale précise n’est pas encore arrêtée, mais j’en attends beaucoup en tant qu’architecture expérimentale et extensible
2 commentaires
NanoClaw – assistant Claude en TypeScript de 500 lignes qui s’exécute dans l’environnement d’isolation de conteneurs d’Apple
Au moment de sa publication, il faisait 500 lignes, mais on dirait qu’il en fait maintenant 4 000 ??
Commentaires sur Hacker News
Plusieurs commentaires contenant des attaques personnelles ont été supprimés
Sur HN, les attaques personnelles sont absolument interdites, même en cas de désaccord, car elles nuisent à l’objectif du site
Si vous n’avez pas relu récemment les règles, il est vivement recommandé de le faire
Du point de vue de la sécurité, avoir un Claw revient un peu à avoir un assistant humain ou un consultant
De la même façon qu’on ne leur donnerait pas accès à ses e-mails personnels ou à son compte bancaire, il faut configurer un e-mail séparé et une carte bancaire d’entreprise limitée
Sans forcément donner accès au compte bancaire, certains accordent aussi des accès à leur comptable ou conseiller financier
Quand j’ai créé mon outil d’agent en CLI, j’y ai ajouté un garde-fou
Pour effectuer une action risquée, comme envoyer un grand volume d’e-mails, il faut saisir un mot de passe à usage unique (OTP)
L’outil demande à l’agent de solliciter l’utilisateur pour l’OTP, et rien ne peut continuer sans cette saisie
Je n’ai pas encore essayé Claw, mais je pense qu’une structure avec intervention humaine de ce type est indispensable
C’est aussi pour cela que je développe moi-même tous mes CLI pour agents afin de garder davantage de contrôle
Si Claw avait existé plus tôt, Internet aurait peut-être été différent
Une structure en menus fondée sur le simple protocole Gopher aurait peut-être été plus adaptée aux LLM
Si les interactions centrées sur des agents côté utilisateur se généralisent, on pourrait évoluer dans cette direction
Si YouTube, Gmail, HN, les banques et même les compagnies d’électricité n’étaient que des API, l’utilisateur pourrait composer l’interface qu’il souhaite
Les entreprises s’y opposeraient parce que cela casserait leurs monopoles, mais la technologie y gagnerait en valeur tout en étant moins rentable
foo-wwwetfoo-httpQuand la proposition CGI est arrivée, je me suis dit : « personne n’utilisera ça », mais tout le monde a fini par implémenter cette spécification. Je regrette qu’on ait perdu cette souplesse initiale
Moi, je parle avec mon instance OpenClaw sur mon Mac via Telegram. D’une certaine manière, j’utilise déjà une nouvelle interface à la place de l’interface d’application classique
Il semble plus logique de concevoir des interfaces centrées sur les agents plutôt que des fenêtres pour humains, en ne gardant qu’une interface de vérification
Le vrai point central de Claw, c’est qu’il s’agit d’un agent centré sur l’utilisateur
L’IA que les gens n’aiment pas est celle que contrôlent les entreprises. Claw est possédé par l’utilisateur, qui peut même lui donner un nom
C’est la différence entre un compagnon comme R2D2 et un robot humanoïde cloné qui essaie de me vendre quelque chose
Je me demandais ce qu’était exactement un « Claw »
Est-ce une IA qui accède à des données personnelles comme les e-mails ?
Est-ce sûr si on l’exécute avec un LLM local dans un conteneur ?
Cela peut tourner aussi bien sur du matériel grand public que sur un VPS. Un nouveau marché est en train d’émerger
Il agit de façon asynchrone en utilisant mes identifiants. C’est simple, mais intéressant
Mon résumé : OpenClaw présente un niveau de risque de sécurité de 5/5
Même un NanoClaw parfaitement audité serait plutôt à 4/5
L’intervention humaine aide, mais l’utilité chute alors rapidement
Les LLM sont utiles pour générer des garde-fous à partir de spécifications en langage naturel ou de tests, mais à mes yeux la stabilité est plus importante
Le terme « Claw » va probablement s’imposer pour désigner les agents IA personnels du type OpenClaw
La mode actuelle des workflows à base d’agents ignore un problème fondamental : l’absence de frontière de sécurité
Si un LLM dispose d’un accès shell illimité et qu’il ingère des données non fiables, l’injection indirecte de prompt est inévitable
De plus, bourrer le contexte avec d’énormes system prompts et des schémas d’outils dégrade les capacités de raisonnement de base du modèle et accroît sa vulnérabilité
La marque Claw du store est sortie avant GTA VI
Après en avoir construit un moi-même, j’ai constaté que 50 lignes de code suffisaient
Quelques lignes pour une bibliothèque Telegram et
claude -p prooomptsuffisentOn peut prendre comme référence le code d’exemple ULTRON
Bien sûr, l’agent délègue à l’extérieur, mais avec 50 lignes de Bash on peut déjà obtenir un résultat presque parfait