1 points par GN⁺ 2026-01-23 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Alors qu’il utilisait Claude Code CLI pour automatiser un projet personnel, son compte a été désactivé sans préavis pendant le processus de création d’un fichier CLAUDE.md
  • Il avait mis en place une boucle itérative automatisée faisant tourner deux instances de Claude en parallèle, l’une corrigeant les erreurs de l’autre
  • Il suppose que le système de détection de « prompt injection » s’est déclenché à cause de la répétition, dans le fichier généré par Claude, de phrases ayant la forme de commandes système
  • Il a ensuite tenté de contacter le support et de faire appel, mais n’a reçu aucune réponse, seulement un avis de remboursement
  • L’auteur souligne, à travers ce cas, les problèmes que posent pour les utilisateurs la censure automatisée et le fonctionnement opaque des services d’IA

Désactivation du compte

  • L’auteur, qui payait €220 par mois et utilisait Claude Code CLI, a reçu lors d’un appel API l’erreur "This organization has been disabled"
    • Cette erreur signifie que le compte a été désactivé
  • À ce moment-là, il travaillait à améliorer un outil de scaffolding automatisé pour un projet personnel
  • Il avait configuré Claude pour générer et modifier automatiquement le code, et c’est au cours de ce processus que le blocage est survenu

Processus de création du fichier CLAUDE.md

  • L’auteur avait demandé à Claude que son outil de scaffolding inclue automatiquement un fichier CLAUDE.md lors de la création d’un projet
    • Ce fichier contenait des instructions liées à son framework maison (boreDOM)
  • Deux instances de Claude, A et B, tournaient chacune dans une session tmux
    • Claude A mettait à jour l’outil, tandis que Claude B travaillait dans un nouveau projet
    • Quand Claude B produisait une erreur, celle-ci était transmise à Claude A afin qu’il la corrige, et le cycle se répétait
  • C’est pendant que cette boucle se poursuivait que le compte a été désactivé

Réaction de Claude et détection du système

  • Pendant que Claude A corrigeait les erreurs de Claude B, des sorties anormales sont apparues, comme des commandes écrites en majuscules (ALL CAPS)
  • Le fichier CLAUDE.md généré contenait de nombreuses phrases donnant des instructions à Claude B
  • L’auteur mentionne que ce schéma a pu être interprété par le système de sécurité de Claude comme une « prompt injection »
  • Cependant, aucune explication officielle sur la raison réelle du blocage n’a été fournie

Demandes au support et remboursement

  • L’auteur a déposé un recours via un formulaire Google Docs, mais n’a reçu aucune réponse
  • Il a ensuite, avec l’aide d’un autre LLM, envoyé un e-mail au support, mais là encore il n’a même pas reçu de réponse automatique
  • Quelques jours plus tard, il a seulement reçu de la part d’Anthropic un reçu de remboursement (credit note)
    • L’auteur décrit cela comme « une notification unilatérale, pas une conversation »
    • Il critique ce système d’exclusion automatisé avec la formule : “It’s not just bad support; it’s automated exclusion.”

Questions soulevées sur l’exploitation des services d’IA

  • À travers ce cas, l’auteur souligne le caractère opaque et unilatéral de la censure et de la gestion des comptes dans les services d’IA
  • Il mentionne que si la même chose s’était produite sur une autre plateforme, cela aurait pu bloquer l’accès à des services essentiels comme les e-mails, les photos ou les documents
  • Selon lui, la censure axée sur la sécurité des IA se fait au détriment de la précision, et, du point de vue des utilisateurs, le fonctionnement ressemble à une boîte noire
  • Depuis, il a reconstruit son projet sans Claude et prévoit de relancer le framework boreDOM comme framework JS centré sur les LLM
  • Enfin, il précise qu’au moment du blocage, Claude se contentait simplement de modifier de façon répétée le fichier CLAUDE.md, et qu’il n’a plus eu aucun autre contact de la part d’Anthropic

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.