9 points par GN⁺ 2026-02-28 | 3 commentaires | Partager sur WhatsApp
  • Pete Hegseth a ordonné au département de la Défense de désigner Anthropic comme entreprise à risque pour la chaîne d’approvisionnement de la sécurité nationale, et d’interdire l’usage d’Anthropic à tous les prestataires travaillant avec l’armée américaine
  • Il a exigé un accès illimité aux modèles pour toutes les finalités de défense légales, tout en reprochant à Anthropic de ne pas s’y être conformée
  • Le président Trump a ordonné via Truth Social la suspension immédiate de l’usage de la technologie d’Anthropic dans toutes les agences fédérales, avec une période de transition de 6 mois
  • Lors de négociations menées pendant plusieurs mois, Anthropic a exigé des garde-fous contre l’usage de ses modèles pour une surveillance intérieure de masse et pour le développement d’armes autonomes sans intervention humaine, ce que le département de la Défense a refusé
  • Claude est actuellement le seul modèle d’IA utilisé dans les systèmes classifiés de l’armée américaine, et il a aussi été utilisé dans l’opération d’arrestation de Maduro, ce qui laisse prévoir une transition très difficile
  • Cette mesure constitue le premier cas d’application d’une désignation de risque pour la chaîne d’approvisionnement à une entreprise américaine, créant un précédent majeur dans les relations entre les entreprises d’IA et la sécurité nationale

Déclaration officielle du secrétaire à la Défense Pete Hegseth

  • Il a critiqué Anthropic et son CEO Dario Amodei, les accusant d’avoir tenté d’exercer un droit de veto sur l’armée américaine en se cachant derrière la rhétorique de l’« altruisme efficace » (effective altruism)
  • Il a souligné que le département de la Défense exigeait un accès complet et illimité aux modèles d’Anthropic pour toutes les finalités légales, et que cette position ne changerait pas
  • Il a déclaré que les conditions d’utilisation d’Anthropic ne pouvaient pas primer sur la sécurité, la préparation opérationnelle et la vie des combattants américains
  • Avec effet immédiat, aucun contractant, fournisseur ou partenaire travaillant avec l’armée américaine ne peut avoir d’activité commerciale avec Anthropic
  • Anthropic continuera toutefois à fournir ses services au département de la Défense pendant jusqu’à 6 mois afin d’assurer une transition fluide
  • Il a précisé qu’il s’agissait de la décision finale, affirmant que « les combattants américains ne seront jamais pris en otage par les caprices idéologiques de la Big Tech »

Contexte du conflit : plusieurs mois de négociations

  • Anthropic et le département de la Défense ont mené plusieurs mois de négociations tendues sur les conditions d’usage de Claude par l’armée
  • Anthropic se disait ouverte à un ajustement de sa politique d’usage, mais tenait à deux garde-fous : empêcher l’utilisation de ses modèles pour une surveillance de masse visant les Américains et pour le développement d’armes tirant sans intervention humaine
  • Le département de la Défense a jugé ces restrictions excessives, estimant qu’il existait trop de zones grises dans la définition de la surveillance de masse et des armes autonomes pour les appliquer en pratique
  • Le département de la Défense mène des négociations non seulement avec Anthropic, mais aussi avec OpenAI, Google et xAI, en exigeant l’usage de leurs modèles pour « toutes les finalités légales » (all lawful purposes)
  • Selon des informations publiées, de hauts responsables du département nourrissaient depuis longtemps du ressentiment envers Anthropic et ont activement saisi l’occasion d’un affrontement public

Rencontre directe Hegseth-Amodei (24 février)

  • Hegseth a informé Amodei que le département de la Défense choisirait entre une désignation de risque pour la chaîne d’approvisionnement ou l’activation du Defense Production Act
  • Le Defense Production Act est une loi des années 1950 qui donne, en cas d’urgence nationale, le pouvoir de contraindre des entreprises à produire certains produits
  • À propos de l’ambiance de la réunion, un responsable a indiqué que « ce n’était pas une atmosphère chaleureuse », tandis qu’une autre source a parlé d’un échange « courtois », sans haussement de ton
  • Hegseth a dit à Amodei qu’il appréciait Claude, tout en affirmant qu’aucune entreprise ne pouvait dicter les conditions des décisions opérationnelles du département de la Défense ni contester des cas d’usage particuliers
  • Hegseth a évoqué de façon précise l’allégation du département selon laquelle, pendant l’opération Maduro, Anthropic aurait exprimé à Palantir des inquiétudes concernant l’usage de Claude ; Amodei l’a nié
  • La réunion a rassemblé de nombreux hauts responsables, dont le secrétaire adjoint à la Défense Steve Feinberg, le sous-secrétaire à la recherche et à l’ingénierie Emil Michael, et le sous-secrétaire aux acquisitions Michael Duffey

Refus final d’Amodei et réaction du département de la Défense

  • Amodei a rejeté jeudi la « meilleure et dernière offre » du département, déclarant qu’il « ne pouvait en conscience accepter leurs exigences »
  • Emil Michael a qualifié Amodei de « menteur » doté d’un « complexe divin », l’accusant d’avoir accepté de mettre en danger la sécurité nationale
  • Après la réunion, Anthropic a maintenu un ton conciliant, déclarant qu’elle « poursuivait de bonne foi les discussions sur sa politique d’usage afin de pouvoir continuer à soutenir les missions de sécurité nationale du gouvernement »

Importance stratégique de Claude et difficulté de la transition

  • Claude est actuellement le seul modèle d’IA utilisé dans les systèmes classifiés de l’armée américaine
  • Il a été utilisé dans l’opération d’arrestation de Maduro via un partenariat avec Palantir, et pourrait aussi être mobilisé dans une éventuelle opération militaire contre l’Iran
  • Des responsables du département reconnaissent eux-mêmes les capacités de Claude et décrivent la transition comme une « douleur énorme »
  • Selon un responsable, « la seule raison pour laquelle on parle encore, c’est qu’on a besoin d’eux, et tout de suite ; le problème, c’est qu’ils sont aussi bons que ça »
  • La valeur du contrat d’Anthropic avec le département de la Défense atteint jusqu’à 200 millions de dollars, soit une fraction minime de son chiffre d’affaires annuel de 14 milliards de dollars
  • Mais Anthropic affirme que 8 des 10 plus grandes entreprises américaines utilisent Claude, ce qui laisse prévoir des répercussions étendues de cette désignation de risque pour la chaîne d’approvisionnement

Modèles alternatifs et mouvement des concurrents

  • xAI d’Elon Musk a récemment signé un contrat pour déployer Grok dans un environnement classifié, mais sa capacité à remplacer totalement Claude reste incertaine
  • Le département de la Défense accélère les discussions pour transférer les modèles d’OpenAI et Google d’environnements non classifiés vers des systèmes classifiés
  • Un haut responsable de l’administration a reconnu que les modèles concurrents étaient « un peu en retard » dans des applications gouvernementales spécifiques, ce qui complique une transition rapide
  • OpenAI, Google et xAI ont déjà accepté de retirer les garde-fous dans les systèmes non classifiés, mais leurs modèles ne sont pas encore utilisés pour des travaux classifiés

Réaction d’OpenAI

  • Le CEO d’OpenAI, Sam Altman, a déclaré vendredi dans une note qu’OpenAI partageait avec Anthropic les mêmes lignes rouges
  • Il a précisé que « l’IA ne doit pas être utilisée pour la surveillance de masse ni pour des armes létales autonomes, et un humain doit intervenir dans les décisions automatisées à haut risque »
  • OpenAI dispose elle aussi d’un contrat séparé de 200 millions de dollars avec le département de la Défense, mais pour des tâches non classifiées

Déclaration du président Trump

  • Sur Truth Social, il a ordonné la « suspension immédiate de l’usage de la technologie d’Anthropic dans toutes les agences fédérales »
  • Il a déclaré qu’« on n’en a pas besoin, on n’en veut pas et on ne fera plus jamais affaire avec eux »
  • Il a qualifié Anthropic de « gauchistes cinglés », dénonçant une « erreur catastrophique » de leur part pour avoir tenté de forcer le département de la Défense à suivre leurs conditions d’utilisation plutôt que la Constitution

Réactions politiques et inquiétudes

  • Le sénateur Mark Warner, vice-président de la commission du renseignement du Sénat, a critiqué la décision de Trump
  • Il a fait part de sérieuses inquiétudes quant au fait que des décisions de sécurité nationale puissent être prises sur la base de considérations politiques plutôt que d’une analyse rigoureuse
  • Il a averti que menacer et dénigrer une entreprise américaine pour orienter les contrats vers des fournisseurs privilégiés faisait courir un risque majeur au pays
  • Des inquiétudes ont aussi été exprimées quant à une possible transition vers des modèles que certaines agences fédérales ont déjà identifiés comme présentant des risques de fiabilité, de sûreté et de sécurité

Position d’Anthropic et perspectives

  • Dans un essai publié en janvier, Dario Amodei a identifié comme inquiétude centrale le fait qu’« il y ait trop peu de doigts sur le bouton », mettant en garde contre une situation où un petit nombre de personnes pourrait diriger une armée de drones sans coopération d’autres humains
  • Anthropic prévoit une introduction en Bourse (IPO) cette année, et l’impact de ce conflit avec l’administration sur les investisseurs reste incertain
  • Amodei a déclaré qu’après s’être opposée à l’administration Trump, la valorisation et les revenus d’Anthropic avaient au contraire progressé
  • Cette désignation de risque pour la chaîne d’approvisionnement, jusque-là appliquée seulement à des entreprises de pays hostiles comme la Russie ou la Chine, serait la première visant une entreprise américaine
  • Palantir utilisait elle aussi Claude pour des travaux classifiés, et devra donc basculer vers des modèles concurrents

3 commentaires

 
cnaa97 2026-02-28

États-Unis « Chine »

 
kimjoin2 2026-03-01

Ça me déplaît, désolé.

 
GN⁺ 2026-02-28
Commentaires Hacker News
  • Je pense que le DoW (Department of War) et Anthropic avaient déjà un contrat, avec des clauses clairement autorisées et interdites
    Mais maintenant, le DoW essaie de revenir sur les termes de ce contrat. En relisant la déclaration officielle de Dario, les cas d’usage invoqués par le DoW n’étaient pas inclus dans le contrat dès le départ
    Au final, Anthropic respecte le contrat initial, et on dirait que le DoW tente de modifier le contrat de mauvaise foi

    • C’est encore plus clair dans l’article d’Astral Codex Ten
      Les conditions initiales avaient été acceptées par le Pentagone, et maintenant le Pentagone essaie de les changer unilatéralement
    • Il est parfaitement normal qu’un fournisseur impose des limites à l’usage que fait un client de son produit
      C’est du même ordre que dire de ne pas utiliser des tuyaux contenant du plomb pour l’eau potable
    • Pour renommer l’institution en Department of War, il faut l’approbation du Congrès. Son nom officiel reste le DoD
    • Cette administration se montre peu fiable dans toutes les négociations, qu’il s’agisse du commerce international ou de contrats d’entreprise
    • L’administration Trump a déjà, par le passé, refusé de payer des prestataires. Difficile d’attendre d’elle qu’elle respecte les contrats cette fois-ci
  • Affirmer qu’il s’agit d’une entreprise suffisamment dangereuse pour menacer la sécurité nationale, tout en continuant à l’utiliser pendant encore 6 mois, paraît contradictoire

    • Ce comportement ne s’explique pas de façon rationnelle. Cela ressemble simplement à une opération de pression (shakedown)
    • À noter qu’Anthropic est actuellement la seule entreprise d’IA opérant dans les systèmes classifiés du Pentagone (article du NYT)
    • Ça fait penser à une menace mafieuse du genre : « Belle IA que vous avez là, ce serait dommage qu’il lui arrive quelque chose »
    • Cette administration agit de manière prévisible en déclarant des situations d’urgence improvisées
    • La stratégie classique de négociation du gouvernement consiste à formuler des exigences extrêmes, puis à transiger sur un point médian qui lui est favorable
  • Il est impressionnant de voir Anthropic tenir à ses principes. C’est exactement le genre d’entreprise avec laquelle j’aurais envie de travailler

    • Bien sûr, une entreprise peut changer, mais l’Anthropic d’aujourd’hui mérite le respect
    • Contrairement à Google, Facebook et OpenAI, elle se distingue clairement par le maintien de normes éthiques
    • Au cours des 9 derniers mois, l’équipe PR a vraiment fait un excellent travail
    • Mais il ne faut pas oublier qu’il existe déjà des victimes des attaques américaines à l’étranger
  • Je soutiens la position d’Anthropic consistant à refuser toute implication dans la létalité ou la surveillance
    En tant que vétéran patriote américain, je préférerais encore voir Anthropic déménager en Europe
    Comme l’a dit Rutger Bregman, l’Europe contrôle déjà le goulot d’étranglement du matériel IA via ASML, et si Anthropic la rejoignait, cela pourrait constituer la base d’une superpuissance de l’IA (lien vers le tweet)

    • Mais si Anthropic déménageait réellement en Europe, les employés pourraient rencontrer des difficultés liées à la langue, à la famille et au mode de vie
    • Si l’Europe avait pu créer Claude, elle l’aurait déjà fait
    • Le Canada serait aussi une bonne alternative. Il dispose d’une base de recherche en IA, comme le Mila, et conserve des valeurs libérales
    • Malgré tout, il est peu probable que l’entreprise entière déménage. Cela ne deviendrait envisageable que si le gouvernement essayait de nationaliser les modèles
  • Cette mesure pourrait porter un coup fatal à Anthropic
    Si toutes les entreprises qui travaillent avec le DoD se voyaient interdire toute activité commerciale avec Anthropic, Claude risquerait d’être expulsé de plateformes cloud comme AWS, Google et Microsoft

    • Mais en pratique, c’est impossible, parce que les grands groupes du cloud sont les principaux investisseurs d’Anthropic. Au final, le DoD reculera probablement pour ne pas perdre la face
    • En réalité, la restriction ne s’applique qu’aux projets liés au gouvernement. Il reste possible d’utiliser Claude pour des usages internes
    • Juridiquement, ce qui est interdit, c’est de le facturer dans le cadre d’un contrat DoD ou de l’intégrer à une solution destinée à ce contrat
    • Autrement dit, AWS peut continuer à proposer Claude dans Bedrock, mais pas l’inclure dans des contrats réservés au DoD
    • En fin de compte, cela ne créera de l’inefficacité que dans les projets gouvernementaux ; dans le privé, l’usage pourra continuer
    • Malgré tout, comme une grande partie du chiffre d’affaires d’Anthropic provient de grands clients d’entreprise, l’impact sur son image sera important
  • Les restrictions demandées par Anthropic ne sont que de deux types
    (1) interdiction de la surveillance de masse sur le territoire national, (2) intervention humaine obligatoire dans les décisions létales
    À ce niveau-là, ce sont presque des conditions trop modérées (déclaration officielle)

    • Mais certaines personnes ne cachent pas leur intention d’utiliser cette technologie contre la population
  • J’ai l’impression que ce genre de sujet est difficile à traiter sur HN
    Il faudrait éviter les discussions politiques, mais dans ce cas précis, c’est un exemple où l’idéologie et les politiques publiques affectent directement la technologie

    • Il est impossible d’en discuter sans dire que le gouvernement agit de mauvaise foi
      Mais les règles de HN disent qu’il faut « interpréter de bonne foi », ce qui rend ce type de sujet intrinsèquement difficile à traiter
    • D’après mon expérience, sur HN, la politique n’est pas interdite ; cela veut surtout dire évitez les polémiques menées de mauvaise foi
      Discuter du lien entre technologie et politique publique a toujours été bienvenu
    • En réalité, tout est politique. La technologie ne fait pas exception
    • Cela dit, il faut éviter de ne parler que de politique. Il y a déjà assez de gens qui font ça
    • La culture hacker elle-même était à l’origine un mouvement politique et idéologique. Il est temps d’en retrouver la nature profonde
  • La formulation « toute entreprise commerçant avec l’armée américaine se voit interdire toute activité commerciale avec Anthropic » est frappante
    Je me demande si cela signifie qu’AWS ou GCP ne pourraient plus revendre Claude

    • Probablement oui, et AWS pourrait même se voir interdire de l’utiliser en interne
      Des universités comme le MIT, Stanford ou Caltech, qui reçoivent des financements publics pour la recherche, pourraient aussi devoir cesser d’utiliser Claude
    • Au final, ce sera sans doute aux avocats de se battre sur l’interprétation, mais les systèmes liés aux logiciels de gestion du risque de la chaîne d’approvisionnement pourraient devenir incompatibles avec une livraison au DoD
    • Le problème plus grave, c’est que selon cette logique, les logiciels open source pourraient eux aussi devenir interdits
    • Au bout du compte, tout le monde en viendra à attendre une injonction judiciaire (injunction)
    • En pratique, seules les entreprises qui traitent avec le DoD seront limitées, les clients ordinaires pourront sans doute continuer à l’utiliser
  • En tant que Latino-Américain, j’étais autrefois favorable aux États-Unis, mais ce n’est plus le cas aujourd’hui
    Les États-Unis ont tendance à traiter l’Amérique latine de manière coercitive, et un monde dominé par la Chine paraît presque moins agressif

    • Il ne faut pas non plus oublier que les États-Unis ont largement contribué à créer le terrorisme islamiste
    • Cela dit, l’Australie ou une UE intégrée seraient peut-être de meilleures alternatives que la Chine
  • Le maccarthysme (McCarthyism) de l’époque Truman, en 1947, a commencé par des tests de loyauté avant de mener aux listes noires et aux emprisonnements (lien Wiki)
    La situation actuelle ressemble à une répétition de cette époque. Si l’on ne se conforme pas à la ligne du gouvernement, on risque d’être placé sur liste noire ou sanctionné

    • Cela rappelle ce qu’ont subi Jack Ma et Alibaba en Chine
    • Mais certaines personnes soutiennent aussi que « McCarthy avait raison »