- Le département de la Guerre des États-Unis a désigné Anthropic comme un facteur de risque pour la chaîne d’approvisionnement en matière de sécurité nationale, et l’entreprise estime que cette mesure est juridiquement injustifiée et prépare une riposte judiciaire
- La lettre du département de la Guerre indique que la portée des restrictions d’usage des modèles Claude est très étroite et ne s’applique qu’à l’usage par des clients directement lié à des contrats avec le département de la Guerre
- La loi concernée (
10 USC 3252) existe dans un but de protection du gouvernement, et le secrétaire au département de la Guerre doit n’utiliser que les moyens les moins restrictifs
- Anthropic discute avec le département de la Guerre de la poursuite de la coopération et de modalités de transition fluides, tout en maintenant ses principes d’exception concernant les armes autonomes et la surveillance intérieure de masse
- L’entreprise souligne qu’elle continuera à soutenir pour que les militaires américains en guerre et les experts de la sécurité ne perdent pas les outils dont ils ont besoin, et met en avant un objectif commun quant à l’usage de l’IA pour la sécurité nationale
Désignation comme risque pour la chaîne d’approvisionnement par le département de la Guerre
- Le département de la Guerre a informé Anthropic qu’il la classait comme un risque pour la chaîne d’approvisionnement de la sécurité nationale des États-Unis
- Anthropic juge cette mesure juridiquement infondée et prévoit de la contester devant les tribunaux
- Selon la formulation de la lettre du département de la Guerre, cette désignation ne s’applique qu’aux clients qui utilisent les modèles Claude comme partie directement intégrée à des contrats avec le département de la Guerre
- Même pour les clients ayant un contrat avec le département de la Guerre, il n’existe aucune restriction sur les usages de Claude sans lien avec ce contrat ni sur les transactions avec Anthropic
Base juridique et champ d’application
- La mesure du département de la Guerre s’appuie sur la section
10 USC 3252, qui exige de recourir à des moyens de restriction minimaux pour protéger la chaîne d’approvisionnement
- L’objectif de cette loi est de protéger le gouvernement, et non de punir les fournisseurs
- En conséquence, la portée de cette désignation est très limitée et n’a aucun effet sur les clients autres que les contractants du département de la Guerre
Coopération avec le département de la Guerre et principes d’exception
- Anthropic a discuté ces derniers jours avec le département de la Guerre des moyens de poursuivre la coopération et des procédures de transition
- L’entreprise a apporté son soutien au département de la Guerre dans divers domaines, notamment l’analyse du renseignement, la modélisation et la simulation, la planification opérationnelle et les opérations cyber
- Anthropic maintient deux principes d’exception concernant les armes autonomes et la surveillance intérieure de masse
- L’entreprise affirme clairement que les entreprises privées ne doivent pas intervenir dans les décisions liées aux opérations militaires
Fuite d’une publication interne
- L’entreprise a présenté ses excuses à propos d’une publication interne divulguée dans les médias la veille
- Cette publication avait été rédigée juste après une publication du président sur Truth Social, une publication du secrétaire au département de la Guerre sur X et l’annonce d’un contrat entre OpenAI et le département de la Défense
- Anthropic affirme ne pas avoir divulgué cette publication et n’avoir eu aucune intention d’aggraver la situation
- Rédigée il y a six jours, elle constitue une évaluation obsolète qui ne reflète pas la situation actuelle
Soutien à venir et objectif commun
- Anthropic prévoit de continuer à aider les militaires américains en guerre et les experts de la sécurité nationale à accéder aux outils dont ils ont besoin
- L’entreprise continuera à fournir aux organismes du département de la Guerre et de sécurité des modèles et un support technique à coût nominal
- L’entreprise partage avec le département de la Guerre un objectif commun : renforcer la sécurité des États-Unis et étendre l’usage gouvernemental de l’IA
- Toutes les décisions à venir seront prises sur la base de ce postulat partagé
1 commentaires
Réactions sur Hacker News
Je suis frappé de voir à quel point la fenêtre d’Overton s’est déplacée sur ce sujet
Quand j’ai obtenu mon diplôme en 2007, il était courant que des entreprises tech refusent que leurs systèmes soient utilisés pour la guerre, et beaucoup de mes camarades refusaient aussi d’y travailler pour des raisons morales
Aujourd’hui, Anthropic essaie de ne poser que deux exceptions, non pas pour des raisons morales mais pour des raisons pratiques. Et même cela est formulé comme s’ils voulaient soutenir la guerre mais ne le pouvaient pas vraiment. Le monde a vraiment beaucoup changé
Un film anti-napalm qui tourne en dérision une situation où des travailleurs ignorent que ce qu’ils fabriquent est en réalité une arme
La réplique finale, « Ce que nous produisons dépend des travailleurs, étudiants et ingénieurs », reste valable aujourd’hui
Avant, ce genre d’histoire faisait partie de l’éducation à l’éthique, mais aujourd’hui on a l’impression que même ces cours ont disparu
Ils ne refusent que parce que la technologie des armes létales autonomes n’est pas encore assez avancée, avec ce sous-entendu du « pas encore »
C’est peut-être mieux qu’OpenAI, mais au fond ce n’est qu’une « option moins mauvaise »
Je reconnais la réalité qui rend la recherche de défense nécessaire, mais les systèmes automatisés de prise de décision deviennent dangereux s’ils échappent au contrôle humain
À mon avis, il faudrait imposer légalement le principe de human-in-the-loop
En 2007, la « guerre », c’était l’Irak ; aujourd’hui, cela inclut Gaza, l’Iran, le Venezuela, ainsi que la possibilité d’une invasion de l’Ukraine ou de Taïwan
Je pense qu’Anthropic garde aussi ce contexte à l’esprit en interne
À l’université, j’avais un ami qui voulait travailler à la DARPA ; quand je lui ai demandé son point de vue éthique, il m’a répondu : « Ce n’est pas mon problème »
En étudiant aux États-Unis, j’ai eu le sentiment que ni les dirigeants du secteur privé ni les universités ne s’intéressaient à la pensée critique et à l’éthique, et qu’ils cherchaient surtout à transformer les gens en simples outils techniques
Même pendant la semaine de l’innovation VR à Harvard, il n’y avait presque ni fondateurs ni développeurs à la session sur « l’éthique et le droit ». Toute discussion sur l’impact social en était soigneusement exclue
J’ai fini par avoir l’impression que cette folie de l’argent avait détruit la capacité de la société à réfléchir
Et si cela conduisait à la mort de quelqu’un, je pense que j’en porterais aussi une part de responsabilité
Mais le vrai problème, c’est qu’en pratique il est difficile de préserver une ligne morale quand on doit gagner sa vie. Au fond, nous sommes tous dans le même bateau
Dans un texte de George Orwell (lien), il disait déjà qu’une formation purement scientifique ne garantit pas une vision humaine
J’ai été stupéfait en lisant la phrase « Anthropic a plus de points communs que de différences avec le ministère de la Défense »
Mais parler aujourd’hui d’alignement de l’IA (alignment) dans le même cadre que l’« alignement avec le ministère de la Guerre » est intellectuellement inapproprié
Parmi les pays attaqués cette année, aucun ne représente une menace existentielle pour l’humanité. Au contraire, ces guerres augmentent des risques fondamentaux
Je me demande pourquoi il n’y a pas davantage de voix dissidentes parmi les chercheurs
Il est fort probable que l’IA soit nationalisée à des fins militaires, et il est contradictoire qu’Anthropic affirme que sa technologie est plus dangereuse que la bombe atomique tout en collaborant militairement avec Palantir
La référence d’Anthropic aux « warfighters » me laisse perplexe
Ces deux seules exceptions suffisent-elles vraiment à maintenir une frontière éthique ?
Dans cette affaire, Anthropic parvient à paraître du « bon côté » tout en gagnant de l’argent avec l’industrie de la guerre
Rien ne montre mieux la réalité orwellienne de l’Amérique de 2026 que le mot “warfighter”
Citation d’un article de Mike Masnick sur Techdirt
Sous les gouvernements précédents, vouloir « empêcher qu’une IA prenne une décision létale sans intervention humaine » aurait été une condition de négociation tout à fait banale
Mais aujourd’hui, on en est au point où le secrétaire à la Défense traite publiquement l’entreprise de « traîtresse », où le président ordonne à toutes les agences fédérales de cesser d’utiliser ses services, et où le CEO doit rédiger des excuses qui ressemblent à une lettre d’otage
Si le pouvoir et la corruption de l’État ne sont pas maîtrisés, les entreprises finiront forcément par conclure ce genre d’accords
Au début, cela commence par l’argent et le patriotisme, puis elles se retrouvent peu à peu mêlées à des actes irréversibles, dont il devient difficile de s’extraire
Un nouveau CEO arrive ensuite en disant : « Mon prédécesseur était faible, moi je serai différent », et le même cycle vicieux recommence
J’aimerais dire ceci à ceux qui veulent fournir leur technologie à l’industrie de la guerre
« On peut tout vous enlever, mais la conscience ne se perd que si l’on y renonce soi-même »
Beaucoup y travaillent simplement par conviction qu’ils aident le gouvernement
Je suis très curieux de voir comment cette affaire se conclura devant les tribunaux et dans le tribunal de l’opinion publique
Je pense que c’est un cas important, et j’espère qu’il aboutira au bon résultat
Le vice-secrétaire du ministère de la Guerre Emil Michael a déclaré dans une annonce officielle qu’« il n’y aura pas de négociation avec Anthropic »
Elle est détaillée dans cette interview d’a16z news