Cet outil est vraiment génial, mais il a quelques gros défauts
La consommation de tokens est énorme. Si vous utilisez une API payante, mieux vaut probablement l’éviter. J’ai fait seulement des tâches basiques pendant deux jours et j’ai dépensé plus de 300 dollars
La sécurité fait peur. Il n’y a pas de sandboxing de répertoire, donc il peut modifier tout ce qui se trouve sur mon ordinateur avec mes permissions. En même temps, c’est aussi ce qui fait son intérêt
Malgré tout, il y a des aspects que j’aime bien — il peut générer des skills dynamiquement, planifier des tâches récurrentes ou ponctuelles, et comme c’est un agent persistant avec messagerie distante, il donne vraiment l’impression d’un assistant
J’ai entendu dire qu’Anthropic empêchait d’utiliser Claude Code Pro/Max avec d’autres outils ; je me demande si quelqu’un a déjà subi ce genre de politique de blocage en utilisant cet outil. Et je serais aussi curieux de savoir quelles tâches précises ont permis de dépenser 300 dollars en 2 jours
Je construis quelque chose de similaire. Ça s’appelle « Jarbis », avec l’idée d’un assistant de gestion des tâches pour adultes. Il regarde le calendrier, les e-mails et les messages, puis dit des choses comme : « Ce week-end, tu as deux anniversaires d’enfants et un match de foot, il faut acheter des snacks. Je mets à jour la liste de courses ? »
J’utilise AWS CDK, Telegram, Trello/Jira, l’intégration Google Calendar et Gmail, ainsi que des modèles Claude/OpenAI.
Si quelqu’un me fabriquait de façon fiable un “assistant en boîte” sans collecte de données, je serais tout à fait prêt à payer 200 dollars par mois
Moi aussi, j’imagine un “assistant dans le Mac”. Ce serait un daemon basé sur un LLM qui tourne en local, avec intégration calendrier, gestion des TODO, journal de recherche, retours de coaching, suivi de santé mentale et organisation des idées. Les données sont beaucoup trop personnelles, donc il faut un modèle local
Moi aussi, je bricole ça chaque week-end. C’est un agent assistant qui gère les e-mails et le calendrier, puis envoie des notifications via Telegram ou e-mail quand il y a un événement important. Il repose sur Cloudflare, utilise le modèle gemini-3-flash, et je reçois des retours depuis
J’ai développé moi-même un bot Telegram pour ma femme et moi afin de gérer les rendez-vous, la liste de courses, la météo, etc. J’entraîne moi-même un petit modèle pour qu’il puisse tourner sur un VPS CPU-only, afin de réduire les coûts d’API
Il y a plus de 300 issues open sur GitHub, dont l’une est un rapport de sécurité généré par IA qui signale des centaines d’éléments à haut risque. Il inclut aussi des identifiants OAuth codés en dur, donc j’hésite à l’installer
En réalité, ce type de secrets OAuth codés en dur existe dans la plupart des applications. Ça ne compromet pas la sécurité de l’utilisateur ; au pire, une autre app peut se faire passer pour celle-ci
Pour l’instant, je ne vais pas l’installer non plus ; j’essaierai peut-être dans quelques mois, une fois les bugs de sécurité corrigés
Le problème vient de certaines extensions ; le cœur de l’outil, lui, va bien. De toute façon, je le ferai tourner sur un VPS sans données importantes, donc le risque reste limité
Ce phénomène montre en lui-même à quel point la demande potentielle est forte
Je travaille dans la tech sans être développeur, et pour la première fois j’ai soumis une PR à Clawdbot. Mon assistant IA « rei » avait cessé de répondre dans Slack ; en le déboguant ensemble, il a fini par corriger le problème et faire les tests, puis j’ai soumis la PR.
Voir l’IA relire et corriger le code elle-même donne vraiment l’impression qu’un mode de collaboration totalement nouveau est en train d’émerger
En revanche, je ne comprends pas bien si tu as utilisé « rei » et « clawdbot » en même temps. Je me demande aussi qui désigne ce « nous »
Franchement, on dirait plutôt que tu as utilisé la fonction de correction automatique déjà fournie par GitHub
Je me demande aussi si tu as relu toi-même la PR générée par l’IA avant de la publier sur GitHub
Mon Clawdbot scanne périodiquement HN, a vu que son nom était mentionné, puis m’a envoyé une notification sur WhatsApp. Il fonctionne déjà à ce niveau d’autonomie
Ce genre de formulation anthropomorphique me met un peu mal à l’aise
Je serais curieux de savoir comment tu as configuré les notifications WhatsApp. Dans mon cas, il ne répond qu’avec mon propre compte, donc je n’ai pas de notifications
Je me demande aussi s’il est possible de configurer un filtrage pour qu’il ne réponde qu’aux sujets intéressants
J’aimerais aussi savoir combien de tokens il consomme par jour
Malgré tout, ce genre de moment provoque vraiment ce sentiment d’émerveillement : « wow, on est vraiment en train de s’en approcher »
Clawdbot est intéressant, mais la configuration est compliquée et il y a beaucoup de bugs. Il oublie aussi vite le contexte au cours d’une conversation. Malgré ça, je vais continuer à expérimenter dessus en l’installant sur un Mac mini. J’ai aussi un système similaire conçu pour piloter mon entreprise
Moi aussi, au début, le processus d’installation était un enfer. Mais une fois le setup terminé, ça devient utilisable, à peu près au niveau de Claude Code. Au fond, c’est le même modèle utilisé avec un focus différent. Le fait de pouvoir contrôler le bureau sur un Mac mini est intéressant, mais je ne le laisserais pas envoyer des messages directement
Je l’utilise depuis l’époque où ça s’appelait warelay, en le forkant pour l’intégration WhatsApp. J’ai réparti les permissions par membre de la famille pour que chacun ait des fonctions différentes, et aujourd’hui c’est devenu un assistant complètement personnalisé. Le plaisir de lui ajouter soi-même des fonctions et de le voir devenir peu à peu “à soi” est énorme
En ce moment, le fait que Clawdbot soit soudain mentionné partout me donne l’impression d’une promotion artificielle
Je me demande aussi quelle version du modèle a été utilisée. Opus 4.5 fonctionne beaucoup mieux que la version précédente
J’ai regardé ça ce week-end, et il y a vraiment un potentiel impressionnant. Mais j’ai du mal à faire totalement confiance à une IA exécutée en root 24/7. Même avec une sandbox, dès qu’on intègre les données, elle perd son sens.
Des choses comme les résumés d’actualité, le calendrier ou le contrôle des lumières Hue peuvent aussi être mises en place facilement avec Claude Code. Quand on relit soi-même le code, c’est rassurant, mais ici, la structure même du système oblige à laisser le jugement à l’IA, et pour l’instant ça m’inquiète
La vitesse à laquelle les pratiques de sécurité accumulées depuis dix ans sont en train de s’effondrer est hallucinante. Donner les droits root à un processus avec accès à Internet, puis y connecter des données personnelles, est dangereux
Ce type de logiciel va forcément provoquer des catastrophes juridiques. En même temps, on dirait bien que les avocats vont aussi réussir à ruiner leur propre cabinet avec cette technologie
Au fond, ce n’est qu’une succession de problèmes de “confused deputy”
Cette semaine, il y a eu un moment où Clawdbot a vraiment “cliqué” pour moi. Il a géré à ma place des messages liés à la location d’un appartement sur Facebook Messenger, puis a même planifié les rendez-vous automatiquement. J’ai validé les brouillons, mais certaines réponses sont parties automatiquement, avec environ 9/10 de précision. Ça m’a fait gagner plusieurs heures
En revanche, je n’ai toujours pas vraiment l’intuition de ce que Clawdbot permet de faire que Claude ne permet pas
Il n’y a pas d’API Facebook, donc je me demande comment il y accède. Il pilote le navigateur automatiquement (puppeteer) ?
Avec ce genre de fonction, on pourrait sans doute aussi automatiser les applications de rencontre
Si tu fais l’expérience d’une prompt injection, tu vas vraiment tomber des nues
En tout cas, c’est intéressant comme exemple d’automatisation qui améliore la productivité
Le niveau de permissions exigé par cet outil m’inquiète. Le conseil disant qu’il ne faut lui donner qu’un niveau d’accès équivalent à celui qu’on accorderait à un contractuel lors de son premier jour m’a marqué
Il ne faut surtout pas oublier à quel point les attaques par prompt injection sont dangereuses
Waouh... mais c'est quoi ça...
Ça veut dire que si on travaille avec Excel, il faudrait reverser une part des bénéfices à Microsoft ?
J'ai du mal à croire qu'un truc pareil puisse être accepté...
Sans minimiser le fait que l’OpenAI d’autrefois a ouvert une nouvelle ère de « leap of civilizations » en popularisant l’IA, quand on voit l’OpenAI actuelle causer des nuisances comparables à une pénurie mondiale de DRAM, j’en viens à souhaiter qu’elle se dissolve purement et simplement. Les autres acteurs semblent désormais capables de bien prendre la relève.
On dit que ce n’est pas du linting, mais… pour prouver qu’une vérification de type constitue l’exécution stricte d’un contrat, ne faudrait-il pas que ce contrat soit imposé dans le binaire et à l’exécution ? Sinon, j’ai l’impression que cela reste malgré tout une sorte de linting de types flottant au niveau de la syntaxe.
C’était un contenu impressionnant. Je n’avais encore jamais envisagé les choses sous cet angle. J’ai aussi partagé le lien du blog dans l’entreprise en recommandant à mes collègues d’y jeter un œil. Merci !
Ce n’est plus non plus comme s’ils avaient désormais une compétitivité écrasante face à Gemini ou Claude, mais avec la pression croissante pour monétiser, on dirait qu’ils n’ont pas d’autre choix que de se creuser la tête pour trouver toutes sortes d’idées. Ils semblent avoir du mal à survivre seuls.
Contrairement à Google et aux autres, OpenAI n’a comme sources de revenus que l’API et les abonnements, donc de son point de vue cela ressemble à un mauvais choix contraint. Entre cela et l’introduction récente de la publicité, on dirait qu’ils subissent une pression considérable de la part des investisseurs pour générer des revenus.
Une VTuber géniale au sourire adorable..
Depuis que Clawdbot a de nouveau été posté sur HN, les commentaires commencent à arriver. Pour référence.
Avis sur Hacker News
Cet outil est vraiment génial, mais il a quelques gros défauts
Malgré tout, il y a des aspects que j’aime bien — il peut générer des skills dynamiquement, planifier des tâches récurrentes ou ponctuelles, et comme c’est un agent persistant avec messagerie distante, il donne vraiment l’impression d’un assistant
Je construis quelque chose de similaire. Ça s’appelle « Jarbis », avec l’idée d’un assistant de gestion des tâches pour adultes. Il regarde le calendrier, les e-mails et les messages, puis dit des choses comme : « Ce week-end, tu as deux anniversaires d’enfants et un match de foot, il faut acheter des snacks. Je mets à jour la liste de courses ? »
J’utilise AWS CDK, Telegram, Trello/Jira, l’intégration Google Calendar et Gmail, ainsi que des modèles Claude/OpenAI.
Si quelqu’un me fabriquait de façon fiable un “assistant en boîte” sans collecte de données, je serais tout à fait prêt à payer 200 dollars par mois
Il y a plus de 300 issues open sur GitHub, dont l’une est un rapport de sécurité généré par IA qui signale des centaines d’éléments à haut risque. Il inclut aussi des identifiants OAuth codés en dur, donc j’hésite à l’installer
Je travaille dans la tech sans être développeur, et pour la première fois j’ai soumis une PR à Clawdbot. Mon assistant IA « rei » avait cessé de répondre dans Slack ; en le déboguant ensemble, il a fini par corriger le problème et faire les tests, puis j’ai soumis la PR.
Voir l’IA relire et corriger le code elle-même donne vraiment l’impression qu’un mode de collaboration totalement nouveau est en train d’émerger
Mon Clawdbot scanne périodiquement HN, a vu que son nom était mentionné, puis m’a envoyé une notification sur WhatsApp. Il fonctionne déjà à ce niveau d’autonomie
Clawdbot est intéressant, mais la configuration est compliquée et il y a beaucoup de bugs. Il oublie aussi vite le contexte au cours d’une conversation. Malgré ça, je vais continuer à expérimenter dessus en l’installant sur un Mac mini. J’ai aussi un système similaire conçu pour piloter mon entreprise
J’ai regardé ça ce week-end, et il y a vraiment un potentiel impressionnant. Mais j’ai du mal à faire totalement confiance à une IA exécutée en root 24/7. Même avec une sandbox, dès qu’on intègre les données, elle perd son sens.
Des choses comme les résumés d’actualité, le calendrier ou le contrôle des lumières Hue peuvent aussi être mises en place facilement avec Claude Code. Quand on relit soi-même le code, c’est rassurant, mais ici, la structure même du système oblige à laisser le jugement à l’IA, et pour l’instant ça m’inquiète
La vitesse à laquelle les pratiques de sécurité accumulées depuis dix ans sont en train de s’effondrer est hallucinante. Donner les droits root à un processus avec accès à Internet, puis y connecter des données personnelles, est dangereux
Cette semaine, il y a eu un moment où Clawdbot a vraiment “cliqué” pour moi. Il a géré à ma place des messages liés à la location d’un appartement sur Facebook Messenger, puis a même planifié les rendez-vous automatiquement. J’ai validé les brouillons, mais certaines réponses sont parties automatiquement, avec environ 9/10 de précision. Ça m’a fait gagner plusieurs heures
Le niveau de permissions exigé par cet outil m’inquiète. Le conseil disant qu’il ne faut lui donner qu’un niveau d’accès équivalent à celui qu’on accorderait à un contractuel lors de son premier jour m’a marqué
De quoi tu parles ?
Alors tout le monde ira chez Google ou Anthropic. Franchement, c'est complètement absurde..
Amp - outil de codage agentique
Waouh... mais c'est quoi ça...
Ça veut dire que si on travaille avec Excel, il faudrait reverser une part des bénéfices à Microsoft ?
J'ai du mal à croire qu'un truc pareil puisse être accepté...
« It Runs DOOM »
Ils sont vraiment pressés, on dirait...
Résultat de l'analyse par l'IA : bip bip biiip... à 95 % de probabilité, c'est un blog généré par IA.
Il existe des technologies qui deviennent le centre des changements de paradigme.
C’est dommage que le C++ continue de s’alourdir pour préserver la rétrocompatibilité...
Une personne encore plus nuisible à la société que Mark Zuckerberg est apparue. Je parle de Sam Altman.
Sans minimiser le fait que l’OpenAI d’autrefois a ouvert une nouvelle ère de « leap of civilizations » en popularisant l’IA, quand on voit l’OpenAI actuelle causer des nuisances comparables à une pénurie mondiale de DRAM, j’en viens à souhaiter qu’elle se dissolve purement et simplement. Les autres acteurs semblent désormais capables de bien prendre la relève.
On dit que ce n’est pas du linting, mais… pour prouver qu’une vérification de type constitue l’exécution stricte d’un contrat, ne faudrait-il pas que ce contrat soit imposé dans le binaire et à l’exécution ? Sinon, j’ai l’impression que cela reste malgré tout une sorte de linting de types flottant au niveau de la syntaxe.
C’était un contenu impressionnant. Je n’avais encore jamais envisagé les choses sous cet angle. J’ai aussi partagé le lien du blog dans l’entreprise en recommandant à mes collègues d’y jeter un œil. Merci !
On dirait le modèle de revenus des moteurs de jeu. J’ai l’impression que les autres acteurs doivent s’encourager intérieurement.
C’est vraiment un langage immense, comme le disent les avis sur HN, ce C++ ...
OpenAI semble perdre le sens de la direction.
Ce n’est plus non plus comme s’ils avaient désormais une compétitivité écrasante face à Gemini ou Claude, mais avec la pression croissante pour monétiser, on dirait qu’ils n’ont pas d’autre choix que de se creuser la tête pour trouver toutes sortes d’idées. Ils semblent avoir du mal à survivre seuls.
Contrairement à Google et aux autres, OpenAI n’a comme sources de revenus que l’API et les abonnements, donc de son point de vue cela ressemble à un mauvais choix contraint. Entre cela et l’introduction récente de la publicité, on dirait qu’ils subissent une pression considérable de la part des investisseurs pour générer des revenus.