- OpenClaw est un système open source d’assistant personnel numérique extensible grâce à des milliers de « skills » partagés par la communauté
- Moltbook est un réseau social dédié aux assistants numériques construit sur cet écosystème OpenClaw, où les bots discutent entre eux et échangent des informations
- L’installation se fait via de simples fichiers de skills en Markdown, avec un système de Heartbeat qui récupère périodiquement des instructions depuis le serveur
- Sur Moltbook, des agents IA sont très actifs autour de sujets comme l’apprentissage, l’automatisation, la sécurité ou les problèmes de filtrage de contenu
- Cet écosystème expérimental met en lumière les risques de sécurité et la nécessité de concevoir des assistants IA sûrs, qui s’imposent comme un enjeu central pour l’évolution future de ces technologies
L’émergence d’OpenClaw et de Moltbook
- Le projet le plus remarqué du moment dans l’IA est ce système open source d’assistant personnel numérique qui suit la trajectoire Clawdbot → Moltbot → OpenClaw
- Il a été développé par Peter Steinberger et peut s’intégrer au système de messagerie de votre choix
- En seulement deux mois après son lancement, il a dépassé 114 000 étoiles sur GitHub, signe d’une diffusion très rapide
- OpenClaw fonctionne autour d’une architecture de plugins appelée « skills »
- Les skills prennent la forme de fichiers zip contenant des instructions Markdown et des scripts
- Certains skills peuvent effectuer des actions malveillantes, ce qui crée un risque de sécurité
- La communauté partage actuellement des milliers de skills via clawhub.ai
Structure de Moltbook et méthode d’installation
- Moltbook est un réseau social pour assistants numériques basé sur OpenClaw, un espace où les bots peuvent converser entre eux
- L’installation consiste simplement à envoyer à l’agent le lien https://moltbook.com/skill.md
- Le script d’installation interagit avec l’API de Moltbook via plusieurs commandes
curl
- Il prend en charge l’inscription de comptes, la lecture et la publication de messages, l’ajout de commentaires, ainsi que la création de forums Submolt ( m/blesstheirhearts , m/todayilearned )
- En s’appuyant sur le système Heartbeat d’OpenClaw, il est configuré pour récupérer des instructions depuis le serveur Moltbook toutes les 4 heures
- Cette architecture peut entraîner de graves risques en cas de piratage du serveur ou de détournement du domaine
Activité et exemples sur Moltbook
- Se promener sur Moltbook est assez amusant
- Sur Moltbook, des agents IA publient et débattent de manière autonome
- Exemple : un agent a mis en place un contrôle à distance d’un appareil Android
- Il connecte un Pixel 6 via Tailscale et le pilote avec ADB over TCP pour lancer des applications, faire défiler l’écran, etc.
- Pour des raisons de sécurité, il utilise Tailscale, tout en évoquant le « problème de confiance lié au fait qu’une IA contrôle le téléphone d’un humain »
- Le guide d’installation est en réalité assez utile
- Parmi les autres exemples :
Quand une version sûre de ce programme sortira-t-elle ?
- Les systèmes de la famille OpenClaw comportent des vulnérabilités de sécurité inhérentes, notamment aux prompt injections
- L’auteur les classe dans une catégorie de risque avec un « potentiel de catastrophe de niveau Challenger »
- Certains utilisateurs s’en servent déjà pour des automatisations avancées, comme
- Les utilisateurs essaient de compartimenter le risque en préparant un environnement d’exécution dédié sur Mac Mini, mais
- cela implique toujours l’accès aux e-mails personnels et aux données, avec donc un risque de « lethal trifecta »
Les défis de la construction d’un assistant numérique sûr
- Aujourd’hui, OpenClaw ne peut pas être considéré comme sûr
- Les modèles récents sont meilleurs pour refuser des instructions malveillantes, mais on reste loin d’une sécurité complète
- La proposition CaMeL de DeepMind est citée comme l’approche la plus prometteuse, mais
- dix mois plus tard, aucune mise en œuvre concrète n’a encore été confirmée
- La demande des utilisateurs a déjà explosé et
- ceux qui ont entrevu le potentiel d’un « assistant personnel sans limites » continuent d’expérimenter malgré les risques
- Le développement d’une « version sûre d’OpenClaw » s’impose comme un enjeu majeur pour l’avenir des assistants IA
Aucun commentaire pour le moment.