Claude for Legal — suite de plugins IA d’Anthropic pour les métiers du droit
(github.com/anthropics)- Une suite de plugins couvrant l’ensemble des pratiques juridiques — contrats commerciaux internes, confidentialité, emploi, M&A, contentieux, réglementation, gouvernance de l’IA, propriété intellectuelle et enseignement du droit — déployable de trois façons : Claude Cowork, Claude Code et Managed Agents API
- Plus de 70 Named Agents inclus — Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder, etc. — exécutables pour chaque workflow via une simple commande slash
- Chaque plugin apprend le playbook de l’équipe, les règles d’escalade et le house style via un cold-start interview, puis les enregistre dans le profil de pratique
CLAUDE.mdafin que toutes les compétences produisent des résultats personnalisés - Plus de 20 connecteurs MCP fournis : outils généralistes comme Slack, Google Drive et Box, ainsi qu’intégrations à des systèmes juridiques spécialisés comme Ironclad, DocuSign, iManage, Everlaw, CourtListener et Trellis
- Le plugin CoCounsel Legal de Thomson Reuters permet une intégration à Westlaw Deep Research et peut générer des rapports entièrement sourcés sur la jurisprudence, les lois et les règlements dans jusqu’à 3 juridictions américaines
- Les citations issues des connecteurs de recherche affichent des balises de source, tandis que les citations reposant uniquement sur les connaissances du modèle sont marquées du drapeau
[verify], afin de distinguer explicitement leur niveau de fiabilité - Les compétences liées aux contrats fonctionnent dans le mode tracked changes de la barre latérale Claude for Word, avec préservation de la numérotation, des clauses de définition, des renvois croisés et du style. Les compétences destinées à Excel produisent des classeurs
.xlsxmulti-feuilles - legal-builder-hub fournit une couche de confiance pour les compétences communautaires — analyse des contenus cachés, détection d’injection, allowlist, contrôle de licence, contrôle de fraîcheur, rescans lors des mises à jour et journaux d’audit d’installation
- Comprend des plugins éducatifs pour les étudiants en droit, comme Socratic Drill (mode d’apprentissage sans fournir la bonne réponse), notation IRAC, préparation au barreau, flashcards et prédiction d’examen, ainsi que le plugin legal-clinic (conçu selon l’ABA Formal Op. 512)
- Tous les livrables sont des brouillons destinés à une revue par un avocat et ne représentent pas la position juridique d’Anthropic. L’ensemble est composé de Markdown et de JSON, sans étape de build nécessaire
- Licence Apache-2.0
1 commentaires
Réactions sur Hacker News
Du point de vue d’un avocat, c’est intéressant, mais il y a deux obstacles dont je ne vois pas comment Anthropic va s’affranchir
(1) Si un non-avocat utilise ce type de skills/connecteurs pour obtenir un conseil juridique, cette conversation ne sera pas protégée par le secret professionnel avocat-client. Cela finira clairement par causer de gros problèmes à quelqu’un
(2) Si un avocat saisit des informations confidentielles sur un client et oublie de désactiver l’option « Help improve Claude », il est possible qu’il commette une faute professionnelle. Ici, les informations confidentielles ne désignent pas seulement le numéro de sécurité sociale ou le numéro de compte bancaire, mais « toute information liée à la représentation du client »
https://www.americanbar.org/content/dam/aba/administrative/p...
Le juge Rakoff du tribunal fédéral du district sud de New York y traite d’une « question inédite au niveau national » et statue que les échanges écrits entre un prévenu pénal et la plateforme d’IA générative Claude ne sont pas protégés par le secret professionnel avocat-client ni par la doctrine du work product
C’est bien plus complexe que cette seule phrase, mais au minimum, il est prudent de considérer que si vous mettez votre défense juridique ou des éléments de celle-ci dans une IA, cela peut devenir sujet à discovery
Je me demande s’il existe des procédures de sécurité opérationnelle permettant d’utiliser ce genre d’outil tiers pour des questions juridiques sensibles tout en ayant la certitude éthique que l’interaction ne finira pas dans des documents communicables en discovery
Il y a un bon récapitulatif de la situation actuelle ici : https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
Cela dit, aucun de ces éléments ne constitue un précédent contraignant, donc ce domaine continuera d’évoluer avec le temps
Quand ça tourne mal, qui est responsable ? Anthropic Inc. ne prendra probablement pas la responsabilité à votre place. Il n’y a ni assurance erreurs et omissions, ni responsabilité juridique, ni secret professionnel avocat-client, ni ordre professionnel pour gérer la discipline
Concrètement, cela ressemble davantage à une version plus sophistiquée des « kits de testament » qui recrachent des PDF. Tant que quelque chose de fondamental ne change pas, le système juridique ne verra pas cela d’un bon œil
Ce serait bien de ne pas avoir à dépenser des milliers de dollars pour se défendre dans une culture aussi procédurière, mais je ne miserais pas ma vie ni mon bien-être là-dessus
Concernant l’IA dans le travail juridique, je suis prudemment optimiste. Une grande partie du travail juridique consiste à fouiller des piles de documents de façon répétitive, donc rien qu’avec ce que les LLM font déjà bien, il y a une vraie marge d’application. Cela dit, pour le travail juridique, une approche de type agent comme Claude me paraît la bonne
La fenêtre de contexte des LLM est trop petite pour contenir même les documents d’une petite affaire. Il faut donc travailler sur une structure de fichiers, comme le font les programmeurs, et stocker l’état dans des fichiers
.md. Cette manière de faire a bien progressé en programmation, mais les entreprises d’IA juridique n’ont même pas encore vraiment effleuré la surface. Franchement, les produits qui cachent un LLM derrière une interface quelconque ne sont pas très bons non plusMalheureusement, je ne pense pas que l’IA aidera beaucoup les particuliers à se défendre à faible coût dans un contentieux. Une bonne partie de ce travail consiste à gérer des humains : comprendre ce qui s’est passé, parler aux personnes concernées, organiser des récits contradictoires, trouver un accord si possible, sinon convaincre un juge au tribunal. L’IA semble plutôt adaptée à aider les grandes entreprises à contrôler leurs frais juridiques dans les gros litiges tout en se bombardant mutuellement d’encore plus de paperasse
Les historiques de chat avec une IA ne sont pas protégés comme le secret professionnel avocat-client et peuvent être utilisés contre vous au tribunal. Si vous parlez à un avocat et que cet avocat utilise une IA, alors cette conversation est couverte par le secret professionnel
Ils semblent avoir retiré Lexis, qui est probablement l’un des outils les plus importants pour les avocats : https://github.com/anthropics/claude-for-legal/pull/5
C’est pour ça que je trouve les valorisations d’une bonne partie des startups d’IA de couche applicative un peu fragiles en ce moment. Si les grands acteurs de l’IA comme Anthropic commencent à s’étendre vers des produits verticaux, les calculs changent
Cela dit, je me demande à quel point ils vont persévérer sérieusement. L’un des rares avantages qui restent à certaines startups est peut-être la crainte que les bundles d’OpenAI/Anthropic et autres finissent au cimetière comme les produits Google au bout d’un ou deux ans
La formule « les workflows juridiques que nous voyons le plus souvent » me dérange un peu. Cela veut-il dire que c’est basé sur des sessions client ? Ont-ils le droit d’utiliser les données client pour construire une base de connaissances sur tous les métiers, sujets et workflows du monde ?
Ils pensent avoir ce droit, et ils le disent assez ouvertement
Cela a même un nom : Clio, qui est, d’après la page, un « système d’insights respectueux de la vie privée sur l’utilisation réelle de l’IA »
La page en question est ici : https://www.anthropic.com/research/clio
À un moment, les avocats, les juristes et les juges vont probablement utiliser ce genre d’outils. Les avocats pourraient alors devenir une sorte de spécialistes SEO / rédacteurs publicitaires capables de mieux tromper les LLM du camp d’en face
En tant que quelqu’un qui s’est déjà représenté lui-même devant un tribunal, je trouve cela clairement intéressant
Toutefois, dans certaines juridictions comme le Royaume-Uni, on ne peut pas simplement fournir des conseils juridiques à quelqu’un sans agrément SRA ou sans être soumis à la régulation de la FCA. Cela pourrait donc, en droit britannique, faire d’Anthropic une claims management company de fait
Selon l’article 89I du Financial Services and Markets Act 2000 (Regulated Activities) Order 2001, le fait de conseiller un demandeur ou demandeur potentiel, d’enquêter sur une réclamation ou de représenter un demandeur dans des réclamations liées à des services ou produits financiers constitue une activité réglementée définie
https://www.fca.org.uk/freedom-information/dual-regulation-c...
À ce stade, on pourrait croire que les entreprises d’IA ont appris que le domaine juridique n’est pas un terrain sur lequel on s’aventure à la légère. L’historique suffit à lui seul. Pourtant, ces optimistes particuliers de l’IA semblent incapables d’apprendre
À la place, elles veulent fournir des services d’IA aux cabinets d’avocats, pour que ceux-ci les utilisent dans la prestation de leurs propres services juridiques. Que ce soit bien ou mal, c’est déjà en cours, et presque tous les grands cabinets d’affaires utilisent déjà l’IA d’une manière ou d’une autre. Les clients le demandent aussi. Il continuera d’y avoir des problèmes liés à l’usage de l’IA en droit, mais la responsabilité retombera sur les avocats
Le nom de l’organisation GitHub, « Anthropics », me semble assez trompeur