1 points par GN⁺ 3 시간 전 | 1 commentaires | Partager sur WhatsApp
  • Une suite de plugins couvrant l’ensemble des pratiques juridiques — contrats commerciaux internes, confidentialité, emploi, M&A, contentieux, réglementation, gouvernance de l’IA, propriété intellectuelle et enseignement du droit — déployable de trois façons : Claude Cowork, Claude Code et Managed Agents API
  • Plus de 70 Named Agents inclus — Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder, etc. — exécutables pour chaque workflow via une simple commande slash
  • Chaque plugin apprend le playbook de l’équipe, les règles d’escalade et le house style via un cold-start interview, puis les enregistre dans le profil de pratique CLAUDE.md afin que toutes les compétences produisent des résultats personnalisés
  • Plus de 20 connecteurs MCP fournis : outils généralistes comme Slack, Google Drive et Box, ainsi qu’intégrations à des systèmes juridiques spécialisés comme Ironclad, DocuSign, iManage, Everlaw, CourtListener et Trellis
  • Le plugin CoCounsel Legal de Thomson Reuters permet une intégration à Westlaw Deep Research et peut générer des rapports entièrement sourcés sur la jurisprudence, les lois et les règlements dans jusqu’à 3 juridictions américaines
  • Les citations issues des connecteurs de recherche affichent des balises de source, tandis que les citations reposant uniquement sur les connaissances du modèle sont marquées du drapeau [verify], afin de distinguer explicitement leur niveau de fiabilité
  • Les compétences liées aux contrats fonctionnent dans le mode tracked changes de la barre latérale Claude for Word, avec préservation de la numérotation, des clauses de définition, des renvois croisés et du style. Les compétences destinées à Excel produisent des classeurs .xlsx multi-feuilles
  • legal-builder-hub fournit une couche de confiance pour les compétences communautaires — analyse des contenus cachés, détection d’injection, allowlist, contrôle de licence, contrôle de fraîcheur, rescans lors des mises à jour et journaux d’audit d’installation
  • Comprend des plugins éducatifs pour les étudiants en droit, comme Socratic Drill (mode d’apprentissage sans fournir la bonne réponse), notation IRAC, préparation au barreau, flashcards et prédiction d’examen, ainsi que le plugin legal-clinic (conçu selon l’ABA Formal Op. 512)
  • Tous les livrables sont des brouillons destinés à une revue par un avocat et ne représentent pas la position juridique d’Anthropic. L’ensemble est composé de Markdown et de JSON, sans étape de build nécessaire
  • Licence Apache-2.0

1 commentaires

 
GN⁺ 3 시간 전
Réactions sur Hacker News
  • Du point de vue d’un avocat, c’est intéressant, mais il y a deux obstacles dont je ne vois pas comment Anthropic va s’affranchir
    (1) Si un non-avocat utilise ce type de skills/connecteurs pour obtenir un conseil juridique, cette conversation ne sera pas protégée par le secret professionnel avocat-client. Cela finira clairement par causer de gros problèmes à quelqu’un
    (2) Si un avocat saisit des informations confidentielles sur un client et oublie de désactiver l’option « Help improve Claude », il est possible qu’il commette une faute professionnelle. Ici, les informations confidentielles ne désignent pas seulement le numéro de sécurité sociale ou le numéro de compte bancaire, mais « toute information liée à la représentation du client »
    https://www.americanbar.org/content/dam/aba/administrative/p...

    • Comme fondement du point 1, il y a https://harvardlawreview.org/blog/2026/03/united-states-v-he...
      Le juge Rakoff du tribunal fédéral du district sud de New York y traite d’une « question inédite au niveau national » et statue que les échanges écrits entre un prévenu pénal et la plateforme d’IA générative Claude ne sont pas protégés par le secret professionnel avocat-client ni par la doctrine du work product
      C’est bien plus complexe que cette seule phrase, mais au minimum, il est prudent de considérer que si vous mettez votre défense juridique ou des éléments de celle-ci dans une IA, cela peut devenir sujet à discovery
    • Le point 1 paraît vraiment étrange. Si je paie un avocat, et que cet avocat soumet la même question à ce type d’outil, cela reste protégé par le secret professionnel avocat-client ; mais si je pose moi-même exactement la même question pour préparer ma défense, cela peut faire l’objet d’une assignation ou de discovery
      Je me demande s’il existe des procédures de sécurité opérationnelle permettant d’utiliser ce genre d’outil tiers pour des questions juridiques sensibles tout en ayant la certitude éthique que l’interaction ne finira pas dans des documents communicables en discovery
    • Le point 1 est un peu plus complexe. Les échanges avec une IA peuvent, dans certains cas, être protégés par la doctrine du work product, mais seulement lorsqu’il s’agit d’une partie agissant pro se, donc se représentant elle-même en justice, et dans les limites strictes de ce qui relève des impressions mentales de l’avocat et du work product d’opinion. Dans ce cas, la protection est étendue à la partie pro se. Voir Warner v. Gilbarco, Inc.
      Il y a un bon récapitulatif de la situation actuelle ici : https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
      Cela dit, aucun de ces éléments ne constitue un précédent contraignant, donc ce domaine continuera d’évoluer avec le temps
    • Pour le point 2, j’imagine que l’usage passera essentiellement par des comptes organisationnels / business avec conservation des données désactivée
    • Le point 1 ne pourrait-il pas être réglé par une simple ligne dans la loi ? Du style : « Les requêtes juridiques adressées à un LLM bénéficient du même secret professionnel avocat-client »
  • Quand ça tourne mal, qui est responsable ? Anthropic Inc. ne prendra probablement pas la responsabilité à votre place. Il n’y a ni assurance erreurs et omissions, ni responsabilité juridique, ni secret professionnel avocat-client, ni ordre professionnel pour gérer la discipline
    Concrètement, cela ressemble davantage à une version plus sophistiquée des « kits de testament » qui recrachent des PDF. Tant que quelque chose de fondamental ne change pas, le système juridique ne verra pas cela d’un bon œil
    Ce serait bien de ne pas avoir à dépenser des milliers de dollars pour se défendre dans une culture aussi procédurière, mais je ne miserais pas ma vie ni mon bien-être là-dessus

    • Le dépôt contient une clause de non-responsabilité très forte disant qu’ils n’assument absolument aucune responsabilité. Cela ressemble plus à une catégorie de cas d’usage marketing qu’à quelque chose de réellement utile
    • La responsabilité incombe à l’utilisateur. Que l’utilisateur obtienne des informations d’un LLM, d’une machine ou d’un billet de blog ne change rien ; il est normal que la personne qui dépose le document en soit responsable
    • La responsabilité incombe aux avocats. L’usage de l’IA n’est pas une décision binaire. Un avocat peut utiliser l’IA pour travailler plus efficacement, et un client peut l’utiliser pour mieux comprendre sa situation actuelle ou les explications de son avocat, ou pour apprendre quelles questions poser. On peut aussi l’utiliser dans des situations à faible risque où personne ne paierait les honoraires d’un avocat
      Concernant l’IA dans le travail juridique, je suis prudemment optimiste. Une grande partie du travail juridique consiste à fouiller des piles de documents de façon répétitive, donc rien qu’avec ce que les LLM font déjà bien, il y a une vraie marge d’application. Cela dit, pour le travail juridique, une approche de type agent comme Claude me paraît la bonne
      La fenêtre de contexte des LLM est trop petite pour contenir même les documents d’une petite affaire. Il faut donc travailler sur une structure de fichiers, comme le font les programmeurs, et stocker l’état dans des fichiers .md. Cette manière de faire a bien progressé en programmation, mais les entreprises d’IA juridique n’ont même pas encore vraiment effleuré la surface. Franchement, les produits qui cachent un LLM derrière une interface quelconque ne sont pas très bons non plus
      Malheureusement, je ne pense pas que l’IA aidera beaucoup les particuliers à se défendre à faible coût dans un contentieux. Une bonne partie de ce travail consiste à gérer des humains : comprendre ce qui s’est passé, parler aux personnes concernées, organiser des récits contradictoires, trouver un accord si possible, sinon convaincre un juge au tribunal. L’IA semble plutôt adaptée à aider les grandes entreprises à contrôler leurs frais juridiques dans les gros litiges tout en se bombardant mutuellement d’encore plus de paperasse
    • Le système juridique n’a pas non plus accueilli favorablement la dépénalisation du jaywalking au départ. Aux États-Unis, il a fallu environ 20 ans
    • D’après le texte source, l’avocat qui utilise le plugin — donc cet avocat, et non le plugin ni Anthropic — est responsable de la position juridique prise dans son propre work product
  • Les historiques de chat avec une IA ne sont pas protégés comme le secret professionnel avocat-client et peuvent être utilisés contre vous au tribunal. Si vous parlez à un avocat et que cet avocat utilise une IA, alors cette conversation est couverte par le secret professionnel

    • Non. Si vous parlez à un avocat et que cet avocat prend des mesures préventives raisonnables pour préserver l’intégrité de la relation confidentielle avocat-client, le secret est maintenu. Sinon, il ne l’est pas
  • Ils semblent avoir retiré Lexis, qui est probablement l’un des outils les plus importants pour les avocats : https://github.com/anthropics/claude-for-legal/pull/5

    • « À la demande du partenaire » : je me demande si Thomson Reuters (Westlaw) s’est senti menacé au point de devoir se plaindre à ce niveau. Cela me donne plutôt envie de voir à quel point ces skills fonctionneraient bien avec Lexis
    • On ne peut pas simplement utiliser la version du code avant ce changement ?
  • C’est pour ça que je trouve les valorisations d’une bonne partie des startups d’IA de couche applicative un peu fragiles en ce moment. Si les grands acteurs de l’IA comme Anthropic commencent à s’étendre vers des produits verticaux, les calculs changent
    Cela dit, je me demande à quel point ils vont persévérer sérieusement. L’un des rares avantages qui restent à certaines startups est peut-être la crainte que les bundles d’OpenAI/Anthropic et autres finissent au cimetière comme les produits Google au bout d’un ou deux ans

    • C’est un peu comme demander : et si AWS s’y mettait ? Ils ont déjà toute l’infrastructure. Le LLM n’est qu’un rouage parmi d’autres, et dans l’applicatif, il reste encore beaucoup de choses qu’ils ne font pas du tout
    • Toutes les valorisations dans l’IA sont instables. Personne n’a vraiment de plan d’affaires solide, il n’y a que l’ambiance, et pourtant l’argent continue d’affluer
  • La formule « les workflows juridiques que nous voyons le plus souvent » me dérange un peu. Cela veut-il dire que c’est basé sur des sessions client ? Ont-ils le droit d’utiliser les données client pour construire une base de connaissances sur tous les métiers, sujets et workflows du monde ?

    • Je pense que oui. Ils entraînent leur IA sur les données de votre entreprise pour pouvoir remplacer votre activité plus tard. Si vous avez du mal à le croire, essayez donc de citer une seule chose sur laquelle ils ne s’entraînent pas
    • Oui, c’est bien basé sur des sessions client
      Ils pensent avoir ce droit, et ils le disent assez ouvertement
      Cela a même un nom : Clio, qui est, d’après la page, un « système d’insights respectueux de la vie privée sur l’utilisation réelle de l’IA »
      La page en question est ici : https://www.anthropic.com/research/clio
    • Il faut aussi se demander selon le droit de quel pays. Vous savez bien que les lois diffèrent d’un pays à l’autre, non ?
    • « Avoir le droit sur le plan légal et moral » et « agir comme si on avait ce droit » sont deux choses différentes. C’est une grande question
  • À un moment, les avocats, les juristes et les juges vont probablement utiliser ce genre d’outils. Les avocats pourraient alors devenir une sorte de spécialistes SEO / rédacteurs publicitaires capables de mieux tromper les LLM du camp d’en face

    • On a déjà largement dépassé ce stade. Il suffit de voir le nombre d’affaires, partout dans le monde, où des avocats ont déposé au tribunal des documents contenant des citations de jurisprudence hallucinées
    • La loi est écrite quelque part, de toute façon. Un humain peut consulter le droit réel et juger si l’IA raconte n’importe quoi
  • En tant que quelqu’un qui s’est déjà représenté lui-même devant un tribunal, je trouve cela clairement intéressant
    Toutefois, dans certaines juridictions comme le Royaume-Uni, on ne peut pas simplement fournir des conseils juridiques à quelqu’un sans agrément SRA ou sans être soumis à la régulation de la FCA. Cela pourrait donc, en droit britannique, faire d’Anthropic une claims management company de fait
    Selon l’article 89I du Financial Services and Markets Act 2000 (Regulated Activities) Order 2001, le fait de conseiller un demandeur ou demandeur potentiel, d’enquêter sur une réclamation ou de représenter un demandeur dans des réclamations liées à des services ou produits financiers constitue une activité réglementée définie
    https://www.fca.org.uk/freedom-information/dual-regulation-c...

  • À ce stade, on pourrait croire que les entreprises d’IA ont appris que le domaine juridique n’est pas un terrain sur lequel on s’aventure à la légère. L’historique suffit à lui seul. Pourtant, ces optimistes particuliers de l’IA semblent incapables d’apprendre

    • Je ne pense pas qu’ils vont arrêter de jouer avec ce domaine. Les avocats coûtent cher, donc le gain potentiel d’un remplacement par l’IA est énorme. En revanche, certaines personnes pensent que les entreprises d’IA vont concurrencer directement les avocats en donnant elles-mêmes des conseils juridiques ; je ne crois absolument pas qu’elles le feront, ce serait un champ de mines en matière de responsabilité
      À la place, elles veulent fournir des services d’IA aux cabinets d’avocats, pour que ceux-ci les utilisent dans la prestation de leurs propres services juridiques. Que ce soit bien ou mal, c’est déjà en cours, et presque tous les grands cabinets d’affaires utilisent déjà l’IA d’une manière ou d’une autre. Les clients le demandent aussi. Il continuera d’y avoir des problèmes liés à l’usage de l’IA en droit, mais la responsabilité retombera sur les avocats
    • Tant qu’on ne les force pas à assumer cette responsabilité, le simple effet de publicité obtenu ici suffit largement à rendre l’opération intéressante. Ce n’est pas une bonne situation
  • Le nom de l’organisation GitHub, « Anthropics », me semble assez trompeur