9 points par princox 2026-02-24 | Aucun commentaire pour le moment. | Partager sur WhatsApp

Anthropic a officiellement annoncé que trois entreprises chinoises d’IA — DeepSeek, MiniMax et Moonshot AI — avaient extrait illégalement les capacités de Claude.

Ampleur de l’attaque
Les trois entreprises ont créé au total 24 000 faux comptes et généré plus de 16 millions de conversations avec Claude, en violation manifeste des conditions d’utilisation d’Anthropic et des restrictions d’accès régionales.

Voici les caractéristiques propres à chaque entreprise. DeepSeek s’est concentrée sur l’acquisition de compétences liées au raisonnement de base et aux requêtes sensibles du point de vue des politiques, à travers plus de 150 000 conversations. MiniMax a généré 13 millions de conversations, soit plus de 80 % du total, en se concentrant sur le code agentique, l’usage d’outils et l’orchestration ; Anthropic l’a détectée en temps réel et a identifié l’opération avant que MiniMax ne lance son modèle. En particulier, lorsqu’Anthropic a lancé un nouveau modèle, MiniMax a montré sa réactivité en basculant, en moins de 24 heures, la moitié de son trafic vers ce nouveau modèle.

Mode opératoire de l’attaque
Comme l’accès à Claude est bloqué en Chine pour des raisons de sécurité nationale, les acteurs ont contourné cette restriction via un service proxy exploitant des dizaines de milliers de faux comptes (architecture « hydra cluster »). Dans un cas, un seul réseau proxy exploitait simultanément plus de 20 000 faux comptes, et le trafic était mêlé à celui d’utilisateurs ordinaires afin de compliquer la détection.

Réponse d’Anthropic
L’entreprise a mis en place des classificateurs pour la détection comportementale (behavioral fingerprinting) ainsi que pour la détection de schémas d’extraction de chaîne de pensée (chain-of-thought). Elle partage également des indicateurs techniques avec d’autres entreprises d’IA, des fournisseurs cloud et les autorités concernées. En outre, elle a renforcé la vérification sur les voies d’ouverture de comptes souvent détournées pour créer de faux comptes, notamment les comptes éducation et les comptes startup.

Angle sécurité nationale
Anthropic qualifie cette affaire non pas de simple violation de ses conditions d’utilisation, mais de menace pour la sécurité nationale. Selon l’entreprise, les modèles issus de cette distillation illégale ont de fortes chances d’être dépourvus de garde-fous contre le développement d’armes biochimiques ou contre les cyberattaques, ce qui neutraliserait la politique américaine de contrôle des exportations d’IA. Affirmant qu’« aucune entreprise ne peut résoudre cela seule », Anthropic appelle à une réponse coordonnée de l’industrie, des fournisseurs cloud et des décideurs publics.
OpenAI avait déjà auparavant signalé au Congrès un comportement similaire de la part de DeepSeek, et les discussions sur une réponse coordonnée à l’échelle de l’industrie américaine de l’IA devraient désormais s’intensifier.​​​​​​​​​​​​​​​​

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.