9 points par GN⁺ 2026-02-28 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Pete Hegseth a ordonné au département de la Défense de désigner Anthropic comme entreprise à risque pour la chaîne d’approvisionnement de la sécurité nationale, et d’interdire l’usage d’Anthropic à tous les prestataires travaillant avec l’armée américaine
  • Il a exigé un accès illimité aux modèles pour toutes les finalités de défense légales, tout en reprochant à Anthropic de ne pas s’y être conformée
  • Le président Trump a ordonné via Truth Social la suspension immédiate de l’usage de la technologie d’Anthropic dans toutes les agences fédérales, avec une période de transition de 6 mois
  • Lors de négociations menées pendant plusieurs mois, Anthropic a exigé des garde-fous contre l’usage de ses modèles pour une surveillance intérieure de masse et pour le développement d’armes autonomes sans intervention humaine, ce que le département de la Défense a refusé
  • Claude est actuellement le seul modèle d’IA utilisé dans les systèmes classifiés de l’armée américaine, et il a aussi été utilisé dans l’opération d’arrestation de Maduro, ce qui laisse prévoir une transition très difficile
  • Cette mesure constitue le premier cas d’application d’une désignation de risque pour la chaîne d’approvisionnement à une entreprise américaine, créant un précédent majeur dans les relations entre les entreprises d’IA et la sécurité nationale

Déclaration officielle du secrétaire à la Défense Pete Hegseth

  • Il a critiqué Anthropic et son CEO Dario Amodei, les accusant d’avoir tenté d’exercer un droit de veto sur l’armée américaine en se cachant derrière la rhétorique de l’« altruisme efficace » (effective altruism)
  • Il a souligné que le département de la Défense exigeait un accès complet et illimité aux modèles d’Anthropic pour toutes les finalités légales, et que cette position ne changerait pas
  • Il a déclaré que les conditions d’utilisation d’Anthropic ne pouvaient pas primer sur la sécurité, la préparation opérationnelle et la vie des combattants américains
  • Avec effet immédiat, aucun contractant, fournisseur ou partenaire travaillant avec l’armée américaine ne peut avoir d’activité commerciale avec Anthropic
  • Anthropic continuera toutefois à fournir ses services au département de la Défense pendant jusqu’à 6 mois afin d’assurer une transition fluide
  • Il a précisé qu’il s’agissait de la décision finale, affirmant que « les combattants américains ne seront jamais pris en otage par les caprices idéologiques de la Big Tech »

Contexte du conflit : plusieurs mois de négociations

  • Anthropic et le département de la Défense ont mené plusieurs mois de négociations tendues sur les conditions d’usage de Claude par l’armée
  • Anthropic se disait ouverte à un ajustement de sa politique d’usage, mais tenait à deux garde-fous : empêcher l’utilisation de ses modèles pour une surveillance de masse visant les Américains et pour le développement d’armes tirant sans intervention humaine
  • Le département de la Défense a jugé ces restrictions excessives, estimant qu’il existait trop de zones grises dans la définition de la surveillance de masse et des armes autonomes pour les appliquer en pratique
  • Le département de la Défense mène des négociations non seulement avec Anthropic, mais aussi avec OpenAI, Google et xAI, en exigeant l’usage de leurs modèles pour « toutes les finalités légales » (all lawful purposes)
  • Selon des informations publiées, de hauts responsables du département nourrissaient depuis longtemps du ressentiment envers Anthropic et ont activement saisi l’occasion d’un affrontement public

Rencontre directe Hegseth-Amodei (24 février)

  • Hegseth a informé Amodei que le département de la Défense choisirait entre une désignation de risque pour la chaîne d’approvisionnement ou l’activation du Defense Production Act
  • Le Defense Production Act est une loi des années 1950 qui donne, en cas d’urgence nationale, le pouvoir de contraindre des entreprises à produire certains produits
  • À propos de l’ambiance de la réunion, un responsable a indiqué que « ce n’était pas une atmosphère chaleureuse », tandis qu’une autre source a parlé d’un échange « courtois », sans haussement de ton
  • Hegseth a dit à Amodei qu’il appréciait Claude, tout en affirmant qu’aucune entreprise ne pouvait dicter les conditions des décisions opérationnelles du département de la Défense ni contester des cas d’usage particuliers
  • Hegseth a évoqué de façon précise l’allégation du département selon laquelle, pendant l’opération Maduro, Anthropic aurait exprimé à Palantir des inquiétudes concernant l’usage de Claude ; Amodei l’a nié
  • La réunion a rassemblé de nombreux hauts responsables, dont le secrétaire adjoint à la Défense Steve Feinberg, le sous-secrétaire à la recherche et à l’ingénierie Emil Michael, et le sous-secrétaire aux acquisitions Michael Duffey

Refus final d’Amodei et réaction du département de la Défense

  • Amodei a rejeté jeudi la « meilleure et dernière offre » du département, déclarant qu’il « ne pouvait en conscience accepter leurs exigences »
  • Emil Michael a qualifié Amodei de « menteur » doté d’un « complexe divin », l’accusant d’avoir accepté de mettre en danger la sécurité nationale
  • Après la réunion, Anthropic a maintenu un ton conciliant, déclarant qu’elle « poursuivait de bonne foi les discussions sur sa politique d’usage afin de pouvoir continuer à soutenir les missions de sécurité nationale du gouvernement »

Importance stratégique de Claude et difficulté de la transition

  • Claude est actuellement le seul modèle d’IA utilisé dans les systèmes classifiés de l’armée américaine
  • Il a été utilisé dans l’opération d’arrestation de Maduro via un partenariat avec Palantir, et pourrait aussi être mobilisé dans une éventuelle opération militaire contre l’Iran
  • Des responsables du département reconnaissent eux-mêmes les capacités de Claude et décrivent la transition comme une « douleur énorme »
  • Selon un responsable, « la seule raison pour laquelle on parle encore, c’est qu’on a besoin d’eux, et tout de suite ; le problème, c’est qu’ils sont aussi bons que ça »
  • La valeur du contrat d’Anthropic avec le département de la Défense atteint jusqu’à 200 millions de dollars, soit une fraction minime de son chiffre d’affaires annuel de 14 milliards de dollars
  • Mais Anthropic affirme que 8 des 10 plus grandes entreprises américaines utilisent Claude, ce qui laisse prévoir des répercussions étendues de cette désignation de risque pour la chaîne d’approvisionnement

Modèles alternatifs et mouvement des concurrents

  • xAI d’Elon Musk a récemment signé un contrat pour déployer Grok dans un environnement classifié, mais sa capacité à remplacer totalement Claude reste incertaine
  • Le département de la Défense accélère les discussions pour transférer les modèles d’OpenAI et Google d’environnements non classifiés vers des systèmes classifiés
  • Un haut responsable de l’administration a reconnu que les modèles concurrents étaient « un peu en retard » dans des applications gouvernementales spécifiques, ce qui complique une transition rapide
  • OpenAI, Google et xAI ont déjà accepté de retirer les garde-fous dans les systèmes non classifiés, mais leurs modèles ne sont pas encore utilisés pour des travaux classifiés

Réaction d’OpenAI

  • Le CEO d’OpenAI, Sam Altman, a déclaré vendredi dans une note qu’OpenAI partageait avec Anthropic les mêmes lignes rouges
  • Il a précisé que « l’IA ne doit pas être utilisée pour la surveillance de masse ni pour des armes létales autonomes, et un humain doit intervenir dans les décisions automatisées à haut risque »
  • OpenAI dispose elle aussi d’un contrat séparé de 200 millions de dollars avec le département de la Défense, mais pour des tâches non classifiées

Déclaration du président Trump

  • Sur Truth Social, il a ordonné la « suspension immédiate de l’usage de la technologie d’Anthropic dans toutes les agences fédérales »
  • Il a déclaré qu’« on n’en a pas besoin, on n’en veut pas et on ne fera plus jamais affaire avec eux »
  • Il a qualifié Anthropic de « gauchistes cinglés », dénonçant une « erreur catastrophique » de leur part pour avoir tenté de forcer le département de la Défense à suivre leurs conditions d’utilisation plutôt que la Constitution

Réactions politiques et inquiétudes

  • Le sénateur Mark Warner, vice-président de la commission du renseignement du Sénat, a critiqué la décision de Trump
  • Il a fait part de sérieuses inquiétudes quant au fait que des décisions de sécurité nationale puissent être prises sur la base de considérations politiques plutôt que d’une analyse rigoureuse
  • Il a averti que menacer et dénigrer une entreprise américaine pour orienter les contrats vers des fournisseurs privilégiés faisait courir un risque majeur au pays
  • Des inquiétudes ont aussi été exprimées quant à une possible transition vers des modèles que certaines agences fédérales ont déjà identifiés comme présentant des risques de fiabilité, de sûreté et de sécurité

Position d’Anthropic et perspectives

  • Dans un essai publié en janvier, Dario Amodei a identifié comme inquiétude centrale le fait qu’« il y ait trop peu de doigts sur le bouton », mettant en garde contre une situation où un petit nombre de personnes pourrait diriger une armée de drones sans coopération d’autres humains
  • Anthropic prévoit une introduction en Bourse (IPO) cette année, et l’impact de ce conflit avec l’administration sur les investisseurs reste incertain
  • Amodei a déclaré qu’après s’être opposée à l’administration Trump, la valorisation et les revenus d’Anthropic avaient au contraire progressé
  • Cette désignation de risque pour la chaîne d’approvisionnement, jusque-là appliquée seulement à des entreprises de pays hostiles comme la Russie ou la Chine, serait la première visant une entreprise américaine
  • Palantir utilisait elle aussi Claude pour des travaux classifiés, et devra donc basculer vers des modèles concurrents

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.