2 points par GN⁺ 2026-02-28 | 1 commentaires | Partager sur WhatsApp
  • Anthropic affirme que l’annonce de désignation de risque pour la chaîne d’approvisionnement de Pete Hegseth n’a aucun fondement juridique et déclare qu’elle la contestera devant les tribunaux
  • Au cours de plusieurs mois de négociations, Anthropic dit n’avoir demandé que deux exceptions : la surveillance intérieure de masse et les armes entièrement autonomes, et soutient que ces exceptions n’ont jusqu’ici affecté aucune mission gouvernementale
  • Selon l’entreprise, les modèles d’IA de frontière actuels ne sont pas suffisamment fiables pour être utilisés dans des armes entièrement autonomes, et autoriser cet usage mettrait au contraire en danger les combattants américains et les civils
  • La désignation de risque pour la chaîne d’approvisionnement a historiquement été réservée aux pays hostiles aux États-Unis, et son application publique à une entreprise américaine serait sans précédent
  • Anthropic indique à ses clients que l’accès à Claude pour les clients ordinaires et les prestataires commerciaux n’est pas affecté, la mesure étant limitée aux activités liées aux contrats du département de la Défense

Contexte et déroulement des négociations

  • Le secrétaire Hegseth a annoncé sur X qu’il ordonnait la désignation d’Anthropic comme risque pour la chaîne d’approvisionnement
  • Cette mesure intervient après plusieurs mois de négociations, arrivées à une impasse, autour des deux exceptions demandées par Anthropic concernant l’usage militaire de Claude
    • Exception 1 : surveillance intérieure de masse visant les Américains
    • Exception 2 : armes entièrement autonomes
  • Au moment de publier sa déclaration, Anthropic n’avait toujours reçu aucune notification officielle directe du département de la Défense ni de la Maison-Blanche sur l’état des négociations

Position d’Anthropic

  • L’entreprise affirme avoir clairement indiqué au département de la Défense qu’elle soutient tous les usages légaux de l’IA liés à la sécurité nationale, à l’exception de ces deux cas
  • Elle soutient que ces exceptions n’ont jusqu’à présent affecté aucune mission gouvernementale
  • Anthropic maintient ces exceptions pour deux raisons :
    • Les modèles d’IA de frontière actuels ne sont pas assez fiables pour être utilisés dans des armes entièrement autonomes, et les autoriser créerait un risque pour les combattants américains et les civils
    • La surveillance intérieure de masse constitue une atteinte aux droits fondamentaux

Réponse juridique et inquiétudes sur le précédent

  • La désignation de risque pour la chaîne d’approvisionnement est historiquement une mesure appliquée uniquement aux pays hostiles aux États-Unis, et son application publique à une entreprise américaine serait sans précédent
  • Anthropic avertit que cette désignation est juridiquement infondée (legally unsound) et qu’elle créerait un précédent dangereux pour toutes les entreprises américaines négociant avec le gouvernement
  • L’entreprise précise qu’aucune menace ni sanction du département de la Défense ne la fera changer de position sur la surveillance intérieure de masse et les armes entièrement autonomes
  • Elle déclare qu’elle contestera cette désignation devant les tribunaux

Impact pour les clients

  • Hegseth a laissé entendre que toutes les transactions avec Anthropic des entreprises travaillant avec l’armée seraient restreintes, mais Anthropic rétorque que le secrétaire ne dispose d’aucune autorité légale pour soutenir une telle mesure
  • Une désignation de risque pour la chaîne d’approvisionnement au titre de 10 USC 3252 ne peut s’appliquer que lorsque Claude est utilisé dans le cadre d’un contrat avec le département de la Défense, et ne peut pas affecter les activités du prestataire pour d’autres clients
  • Portée concrète de l’impact :
    • Si vous êtes un client individuel ou détenez un contrat commercial avec Anthropic : aucun impact sur l’accès à Claude via l’API, claude.ai, etc.
    • Si vous êtes un prestataire du département de la Défense : même en cas d’adoption officielle, l’impact se limiterait à l’usage de Claude dans le cadre des contrats avec le département de la Défense, sans effet sur les autres usages

Orientation future d’Anthropic

  • Depuis juin 2024, en tant que première entreprise d’IA de frontière à avoir déployé des modèles sur les réseaux classifiés du gouvernement américain, Anthropic affirme soutenir les combattants américains et dit vouloir continuer à le faire
  • Sa priorité absolue est d’éviter toute interruption de service pour les clients à cause de cette situation et d’assurer une transition fluide pour l’armée et les opérations militaires américaines
  • L’entreprise exprime sa gratitude envers les acteurs du secteur, les décideurs politiques, les anciens militaires et le grand public qui lui ont récemment apporté leur soutien

1 commentaires

 
GN⁺ 2026-02-28
Commentaires Hacker News
  • La position d’Anthropic cette fois-ci est vraiment admirable
    Reconnaître honnêtement qu’il est impossible de prévoir comment une technologie puissante pourrait être détournée est une attitude intelligente et courageuse

  • Il y a quelque chose d’ironique à voir Anthropic ou OpenAI collecter des données utilisateurs comme s’ils surveillaient le monde entier, tout en réagissant vivement à la possibilité que la même chose se produise dans leur propre pays
    Surtout quand on voit qu’ils analysent même les historiques de chat dans les rapports liés à la Chine, la vie privée n’existe en pratique plus vraiment

  • J’espère qu’Anthropic tiendra bon même dans cette situation
    Cette attitude me les rend au contraire encore plus sympathiques

  • J’aimerais qu’ils n’aident pas “Big Brother” à voir encore davantage
    Si cela conduit à un renforcement de la surveillance, c’est peut-être le moment de se demander sérieusement s’il faut continuer
    Peut-être qu’il faut désormais réfléchir à des moyens de perturber leurs jeux de données d’entraînement

  • Je me demande si Anthropic est la première entreprise à s’opposer frontalement à l’administration actuelle

    • Non. L’an dernier, plusieurs cabinets d’avocats visés par des décrets exécutifs (EOs) ont gagné en justice
    • Autre exemple, plusieurs PME ont combattu les mesures tarifaires IEEPA de l’administration et ont obtenu gain de cause devant la Cour suprême
      Voir la jurisprudence associée : Learning Resources, Inc. v. Trump
  • Voilà ce qu’est un vrai leadership
    C’est complètement différent du silence et de l’alignement que montrent les grandes entreprises tech

  • Cette déclaration donne l’impression d’un message très poli du genre “essaie donc pour voir
    Anthropic montre une attitude de fidélité à ses principes, et s’ils tiennent jusqu’au bout, je pense qu’ils ont de bonnes chances de l’emporter

  • Résumé du contenu de la déclaration
    Le secrétaire Hegseth a dit que “les entreprises qui traitent avec l’armée ne pourront plus non plus traiter avec Anthropic”, mais cela n’a aucun fondement juridique
    Selon le 10 USC 3252, la ‘désignation de risque pour la chaîne d’approvisionnement’ ne s’applique qu’à l’utilisation de Claude dans les contrats du Department of War
    Autrement dit, cela n’a aucun impact sur l’utilisation de l’API Claude ou de claude.ai par les utilisateurs ordinaires ou les clients commerciaux

    • En réalité, la vraie question est de savoir si l’administration va faire pression sur les contractants
      Cela pourrait même toucher des entreprises comme Google, qui fournissent des ressources de calcul à Anthropic
      Si la loi fonctionne correctement, les dégâts devraient être limités, mais tout dépendra jusqu’où l’administration voudra aller
      Personnellement, je n’ai presque aucune confiance dans le système juridique ; au final, cela semble surtout être une question de volonté politique
    • Une autre possibilité serait de classer cette technologie comme ‘donnée restreinte’, à l’image des technologies nucléaires
      Cela donnerait lieu à une bataille judiciaire, mais la plupart des entreprises ne prendront sans doute pas un tel risque et finiront par céder
  • Le titre semble erroné
    En réalité, c’est une “déclaration destinée aux clients en réponse aux propos du secrétaire au Department of War Pete Hegseth”
    Ce type de réponse pourrait au contraire toucher un point sensible chez l’adversaire et provoquer des tensions supplémentaires

    • Corrigé, merci