- Pete Hegseth a ordonné au département de la Défense de désigner Anthropic comme entreprise à risque pour la chaîne d’approvisionnement de la sécurité nationale, et d’interdire l’usage d’Anthropic à tous les prestataires travaillant avec l’armée américaine
- Il a exigé un accès illimité aux modèles pour toutes les finalités de défense légales, tout en reprochant à Anthropic de ne pas s’y être conformée
- Le président Trump a ordonné via Truth Social la suspension immédiate de l’usage de la technologie d’Anthropic dans toutes les agences fédérales, avec une période de transition de 6 mois
- Lors de négociations menées pendant plusieurs mois, Anthropic a exigé des garde-fous contre l’usage de ses modèles pour une surveillance intérieure de masse et pour le développement d’armes autonomes sans intervention humaine, ce que le département de la Défense a refusé
- Claude est actuellement le seul modèle d’IA utilisé dans les systèmes classifiés de l’armée américaine, et il a aussi été utilisé dans l’opération d’arrestation de Maduro, ce qui laisse prévoir une transition très difficile
- Cette mesure constitue le premier cas d’application d’une désignation de risque pour la chaîne d’approvisionnement à une entreprise américaine, créant un précédent majeur dans les relations entre les entreprises d’IA et la sécurité nationale
Déclaration officielle du secrétaire à la Défense Pete Hegseth
- Il a critiqué Anthropic et son CEO Dario Amodei, les accusant d’avoir tenté d’exercer un droit de veto sur l’armée américaine en se cachant derrière la rhétorique de l’« altruisme efficace » (effective altruism)
- Il a souligné que le département de la Défense exigeait un accès complet et illimité aux modèles d’Anthropic pour toutes les finalités légales, et que cette position ne changerait pas
- Il a déclaré que les conditions d’utilisation d’Anthropic ne pouvaient pas primer sur la sécurité, la préparation opérationnelle et la vie des combattants américains
- Avec effet immédiat, aucun contractant, fournisseur ou partenaire travaillant avec l’armée américaine ne peut avoir d’activité commerciale avec Anthropic
- Anthropic continuera toutefois à fournir ses services au département de la Défense pendant jusqu’à 6 mois afin d’assurer une transition fluide
- Il a précisé qu’il s’agissait de la décision finale, affirmant que « les combattants américains ne seront jamais pris en otage par les caprices idéologiques de la Big Tech »
Contexte du conflit : plusieurs mois de négociations
- Anthropic et le département de la Défense ont mené plusieurs mois de négociations tendues sur les conditions d’usage de Claude par l’armée
- Anthropic se disait ouverte à un ajustement de sa politique d’usage, mais tenait à deux garde-fous : empêcher l’utilisation de ses modèles pour une surveillance de masse visant les Américains et pour le développement d’armes tirant sans intervention humaine
- Le département de la Défense a jugé ces restrictions excessives, estimant qu’il existait trop de zones grises dans la définition de la surveillance de masse et des armes autonomes pour les appliquer en pratique
- Le département de la Défense mène des négociations non seulement avec Anthropic, mais aussi avec OpenAI, Google et xAI, en exigeant l’usage de leurs modèles pour « toutes les finalités légales » (all lawful purposes)
- Selon des informations publiées, de hauts responsables du département nourrissaient depuis longtemps du ressentiment envers Anthropic et ont activement saisi l’occasion d’un affrontement public
Rencontre directe Hegseth-Amodei (24 février)
- Hegseth a informé Amodei que le département de la Défense choisirait entre une désignation de risque pour la chaîne d’approvisionnement ou l’activation du Defense Production Act
- Le Defense Production Act est une loi des années 1950 qui donne, en cas d’urgence nationale, le pouvoir de contraindre des entreprises à produire certains produits
- À propos de l’ambiance de la réunion, un responsable a indiqué que « ce n’était pas une atmosphère chaleureuse », tandis qu’une autre source a parlé d’un échange « courtois », sans haussement de ton
- Hegseth a dit à Amodei qu’il appréciait Claude, tout en affirmant qu’aucune entreprise ne pouvait dicter les conditions des décisions opérationnelles du département de la Défense ni contester des cas d’usage particuliers
- Hegseth a évoqué de façon précise l’allégation du département selon laquelle, pendant l’opération Maduro, Anthropic aurait exprimé à Palantir des inquiétudes concernant l’usage de Claude ; Amodei l’a nié
- La réunion a rassemblé de nombreux hauts responsables, dont le secrétaire adjoint à la Défense Steve Feinberg, le sous-secrétaire à la recherche et à l’ingénierie Emil Michael, et le sous-secrétaire aux acquisitions Michael Duffey
Refus final d’Amodei et réaction du département de la Défense
- Amodei a rejeté jeudi la « meilleure et dernière offre » du département, déclarant qu’il « ne pouvait en conscience accepter leurs exigences »
- Emil Michael a qualifié Amodei de « menteur » doté d’un « complexe divin », l’accusant d’avoir accepté de mettre en danger la sécurité nationale
- Après la réunion, Anthropic a maintenu un ton conciliant, déclarant qu’elle « poursuivait de bonne foi les discussions sur sa politique d’usage afin de pouvoir continuer à soutenir les missions de sécurité nationale du gouvernement »
Importance stratégique de Claude et difficulté de la transition
- Claude est actuellement le seul modèle d’IA utilisé dans les systèmes classifiés de l’armée américaine
- Il a été utilisé dans l’opération d’arrestation de Maduro via un partenariat avec Palantir, et pourrait aussi être mobilisé dans une éventuelle opération militaire contre l’Iran
- Des responsables du département reconnaissent eux-mêmes les capacités de Claude et décrivent la transition comme une « douleur énorme »
- Selon un responsable, « la seule raison pour laquelle on parle encore, c’est qu’on a besoin d’eux, et tout de suite ; le problème, c’est qu’ils sont aussi bons que ça »
- La valeur du contrat d’Anthropic avec le département de la Défense atteint jusqu’à 200 millions de dollars, soit une fraction minime de son chiffre d’affaires annuel de 14 milliards de dollars
- Mais Anthropic affirme que 8 des 10 plus grandes entreprises américaines utilisent Claude, ce qui laisse prévoir des répercussions étendues de cette désignation de risque pour la chaîne d’approvisionnement
Modèles alternatifs et mouvement des concurrents
- xAI d’Elon Musk a récemment signé un contrat pour déployer Grok dans un environnement classifié, mais sa capacité à remplacer totalement Claude reste incertaine
- Le département de la Défense accélère les discussions pour transférer les modèles d’OpenAI et Google d’environnements non classifiés vers des systèmes classifiés
- Un haut responsable de l’administration a reconnu que les modèles concurrents étaient « un peu en retard » dans des applications gouvernementales spécifiques, ce qui complique une transition rapide
- OpenAI, Google et xAI ont déjà accepté de retirer les garde-fous dans les systèmes non classifiés, mais leurs modèles ne sont pas encore utilisés pour des travaux classifiés
Réaction d’OpenAI
- Le CEO d’OpenAI, Sam Altman, a déclaré vendredi dans une note qu’OpenAI partageait avec Anthropic les mêmes lignes rouges
- Il a précisé que « l’IA ne doit pas être utilisée pour la surveillance de masse ni pour des armes létales autonomes, et un humain doit intervenir dans les décisions automatisées à haut risque »
- OpenAI dispose elle aussi d’un contrat séparé de 200 millions de dollars avec le département de la Défense, mais pour des tâches non classifiées
Déclaration du président Trump
- Sur Truth Social, il a ordonné la « suspension immédiate de l’usage de la technologie d’Anthropic dans toutes les agences fédérales »
- Il a déclaré qu’« on n’en a pas besoin, on n’en veut pas et on ne fera plus jamais affaire avec eux »
- Il a qualifié Anthropic de « gauchistes cinglés », dénonçant une « erreur catastrophique » de leur part pour avoir tenté de forcer le département de la Défense à suivre leurs conditions d’utilisation plutôt que la Constitution
Réactions politiques et inquiétudes
- Le sénateur Mark Warner, vice-président de la commission du renseignement du Sénat, a critiqué la décision de Trump
- Il a fait part de sérieuses inquiétudes quant au fait que des décisions de sécurité nationale puissent être prises sur la base de considérations politiques plutôt que d’une analyse rigoureuse
- Il a averti que menacer et dénigrer une entreprise américaine pour orienter les contrats vers des fournisseurs privilégiés faisait courir un risque majeur au pays
- Des inquiétudes ont aussi été exprimées quant à une possible transition vers des modèles que certaines agences fédérales ont déjà identifiés comme présentant des risques de fiabilité, de sûreté et de sécurité
Position d’Anthropic et perspectives
- Dans un essai publié en janvier, Dario Amodei a identifié comme inquiétude centrale le fait qu’« il y ait trop peu de doigts sur le bouton », mettant en garde contre une situation où un petit nombre de personnes pourrait diriger une armée de drones sans coopération d’autres humains
- Anthropic prévoit une introduction en Bourse (IPO) cette année, et l’impact de ce conflit avec l’administration sur les investisseurs reste incertain
- Amodei a déclaré qu’après s’être opposée à l’administration Trump, la valorisation et les revenus d’Anthropic avaient au contraire progressé
- Cette désignation de risque pour la chaîne d’approvisionnement, jusque-là appliquée seulement à des entreprises de pays hostiles comme la Russie ou la Chine, serait la première visant une entreprise américaine
- Palantir utilisait elle aussi Claude pour des travaux classifiés, et devra donc basculer vers des modèles concurrents
3 commentaires
États-Unis « Chine »
Ça me déplaît, désolé.
Commentaires Hacker News
Je pense que le DoW (Department of War) et Anthropic avaient déjà un contrat, avec des clauses clairement autorisées et interdites
Mais maintenant, le DoW essaie de revenir sur les termes de ce contrat. En relisant la déclaration officielle de Dario, les cas d’usage invoqués par le DoW n’étaient pas inclus dans le contrat dès le départ
Au final, Anthropic respecte le contrat initial, et on dirait que le DoW tente de modifier le contrat de mauvaise foi
Les conditions initiales avaient été acceptées par le Pentagone, et maintenant le Pentagone essaie de les changer unilatéralement
C’est du même ordre que dire de ne pas utiliser des tuyaux contenant du plomb pour l’eau potable
Affirmer qu’il s’agit d’une entreprise suffisamment dangereuse pour menacer la sécurité nationale, tout en continuant à l’utiliser pendant encore 6 mois, paraît contradictoire
Il est impressionnant de voir Anthropic tenir à ses principes. C’est exactement le genre d’entreprise avec laquelle j’aurais envie de travailler
Je soutiens la position d’Anthropic consistant à refuser toute implication dans la létalité ou la surveillance
En tant que vétéran patriote américain, je préférerais encore voir Anthropic déménager en Europe
Comme l’a dit Rutger Bregman, l’Europe contrôle déjà le goulot d’étranglement du matériel IA via ASML, et si Anthropic la rejoignait, cela pourrait constituer la base d’une superpuissance de l’IA (lien vers le tweet)
Cette mesure pourrait porter un coup fatal à Anthropic
Si toutes les entreprises qui travaillent avec le DoD se voyaient interdire toute activité commerciale avec Anthropic, Claude risquerait d’être expulsé de plateformes cloud comme AWS, Google et Microsoft
Les restrictions demandées par Anthropic ne sont que de deux types
(1) interdiction de la surveillance de masse sur le territoire national, (2) intervention humaine obligatoire dans les décisions létales
À ce niveau-là, ce sont presque des conditions trop modérées (déclaration officielle)
J’ai l’impression que ce genre de sujet est difficile à traiter sur HN
Il faudrait éviter les discussions politiques, mais dans ce cas précis, c’est un exemple où l’idéologie et les politiques publiques affectent directement la technologie
Mais les règles de HN disent qu’il faut « interpréter de bonne foi », ce qui rend ce type de sujet intrinsèquement difficile à traiter
Discuter du lien entre technologie et politique publique a toujours été bienvenu
La formulation « toute entreprise commerçant avec l’armée américaine se voit interdire toute activité commerciale avec Anthropic » est frappante
Je me demande si cela signifie qu’AWS ou GCP ne pourraient plus revendre Claude
Des universités comme le MIT, Stanford ou Caltech, qui reçoivent des financements publics pour la recherche, pourraient aussi devoir cesser d’utiliser Claude
En tant que Latino-Américain, j’étais autrefois favorable aux États-Unis, mais ce n’est plus le cas aujourd’hui
Les États-Unis ont tendance à traiter l’Amérique latine de manière coercitive, et un monde dominé par la Chine paraît presque moins agressif
Le maccarthysme (McCarthyism) de l’époque Truman, en 1947, a commencé par des tests de loyauté avant de mener aux listes noires et aux emprisonnements (lien Wiki)
La situation actuelle ressemble à une répétition de cette époque. Si l’on ne se conforme pas à la ligne du gouvernement, on risque d’être placé sur liste noire ou sanctionné