1 points par GN⁺ 2026-03-01 | 1 commentaires | Partager sur WhatsApp
  • Le gouvernement américain a entièrement cessé d’utiliser la technologie d’IA d’Anthropic, et le département de la Défense l’a désignée comme entreprise présentant un risque pour la sécurité nationale
  • Immédiatement après l’annonce, OpenAI a signé avec le département de la Défense un contrat de fourniture d’IA pour des réseaux classifiés, s’imposant comme fournisseur de remplacement
  • Anthropic a perdu le contrat en maintenant des restrictions d’usage sur les armes autonomes et la surveillance intérieure de masse, et a annoncé une riposte judiciaire
  • L’administration Trump a affirmé vouloir garantir l’accès à l’IA pour toute finalité légale, tandis qu’Anthropic a mis en avant la sûreté de la technologie et les risques d’atteinte aux droits humains
  • Cette décision est considérée comme un cas marquant de l’escalade du conflit autour du droit des entreprises d’IA à fixer des limites à l’usage militaire

L’interdiction d’Anthropic par l’administration Trump

  • Le président Trump a ordonné à toutes les agences fédérales de cesser d’utiliser la technologie d’Anthropic, et le département de la Défense a classé l’entreprise comme risque pour la chaîne d’approvisionnement de sécurité nationale
    • Le président a publié sur Truth Social : « Anthropic a fait passer ses propres conditions d’utilisation avant la Constitution », ajoutant que « le gouvernement des États-Unis ne fait plus affaire avec eux »
    • Une période de retrait progressif de six mois a été fixée
  • Le secrétaire à la Défense Pete Hegseth a ajouté Anthropic à la liste des entreprises interdites de transactions avec l’armée américaine et ses sous-traitants, en annonçant un passage vers « des services plus patriotiques »
    • Le département de la Défense utilise l’appellation rebaptisée de Department of War

La riposte d’Anthropic et l’action en justice

  • Anthropic a indiqué prévoir de saisir la justice, estimant que la désignation comme risque pour la chaîne d’approvisionnement manque de base juridique
    • L’entreprise affirme que cette désignation s’applique uniquement à l’utilisation des modèles Claude dans les contrats militaires et n’affecte pas ses relations avec d’autres clients
  • Anthropic a réaffirmé son opposition à la surveillance intérieure et à l’usage d’armes entièrement autonomes
    • « Les modèles d’IA actuels ne sont pas suffisamment fiables pour être utilisés dans des armes entièrement autonomes, et la surveillance de masse porte atteinte aux droits fondamentaux », a précisé l’entreprise
    • La société explique avoir négocié pendant plusieurs mois avec le département de la Défense, tout en maintenant ces deux exceptions

Le contrat d’OpenAI avec le département de la Défense

  • Juste après l’annonce de Trump, OpenAI a signé un contrat d’IA pour réseau classifié avec le département de la Défense
    • Le PDG Sam Altman a déclaré que le contrat incluait « l’interdiction de la surveillance intérieure et le principe de responsabilité humaine dans l’usage de la force »
    • Il s’agit d’une forme qui reflète les clauses de garde-fous qu’Anthropic demandait
  • OpenAI, Google, xAI et d’autres sont également sous contrat avec le département de la Défense, en acceptant la condition d’autoriser l’usage pour « toute finalité légale »

Le projet d’IPO d’Anthropic et l’impact sur le marché

  • Anthropic prépare une IPO cette année sur la base d’une valorisation de 380 milliards de dollars
    • Le contrat du département de la Défense, d’un montant pouvant atteindre 200 millions de dollars, reste modeste par rapport au chiffre d’affaires total (14 milliards de dollars), mais l’impact du conflit politique sur la confiance des investisseurs reste incertain
  • Le PDG Dario Amodei a déclaré que « la valeur de l’entreprise et son chiffre d’affaires ont continué à croître, même après avoir maintenu sa position sur la manière dont l’IA doit être utilisée sur le champ de bataille »

Le débat autour des limites de l’usage militaire de l’IA

  • Le département de la Défense avait imposé à Anthropic une échéance pour lever les restrictions sur ses modèles (vendredi à 17 h 01 ET), en avertissant d’une résiliation du contrat en cas de refus
    • Le département a également évoqué la possibilité d’invoquer le Defense Production Act, adopté à l’époque de la guerre de Corée
  • Le secrétaire Hegseth a critiqué Anthropic, affirmant que l’entreprise « essayait de contrôler les décisions opérationnelles de l’armée américaine », et a ajouté que « l’armée américaine ne se laisse pas dicter sa conduite par les lubies idéologiques de la Big Tech »
  • Le sous-secrétaire à la recherche et à l’ingénierie du département de la Défense, Emil Michael, a souligné que « l’usage de la surveillance intérieure et des armes autonomes est déjà interdit par le droit fédéral et les politiques en vigueur »
  • Des experts indépendants ont qualifié l’affaire de conflit public inhabituel dans l’histoire des contrats du Pentagone
    • « L’IA reste une technologie qui n’a pas encore fait ses preuves, et cette affaire en reflète les caractéristiques », selon leur analyse

1 commentaires

 
GN⁺ 2026-03-01
Réactions sur Hacker News
  • Cette affaire pourrait rendre Anthropic populaire auprès de ceux qui ne soutiennent pas l’administration américaine actuelle

    • Ces derniers mois, les modèles américains sont restés en tête, mais je pense que cet écart va progressivement se réduire
      Pour l’instant, il faut encore utiliser des modèles américains pour les requêtes complexes, mais heureusement il existe parmi eux une entreprise qu’on peut soutenir en conscience
      Je veux soutenir des entreprises qui ne servent ni aux drones de guerre ni à la surveillance de masse
      C’est pour ça que je suis en train de migrer l’infrastructure de mon entreprise de MS 365 vers Nextcloud sur Hetzner
    • D’autres entreprises d’IA devraient aussi s’inspirer de cette ligne éthique claire
      Refuser la surveillance de masse ou l’automatisation létale devrait être un critère de base
    • En l’apprenant, je me suis dit qu’Anthropic serait sans doute le premier nom qui viendrait à l’esprit en Europe quand on parle d’infrastructure IA
      Je me demande s’il y a déjà eu des cas où une entreprise américaine a ainsi complètement « émigré »
    • En ce moment, Claude Code est au plus haut niveau pour la programmation
      Si Anthropic conserve cet avantage, sa clientèle d’entreprise devrait continuer à croître
    • Cette décision pourrait améliorer sa réputation sur un marché, tout en lui faisant perdre de son attrait sur un autre
  • Si j’ai bien compris, cette affaire concerne l’interdiction par Anthropic des usages liés aux armes autonomes et à la surveillance intérieure
    En pratique, je pense qu’un système d’IA totalement centralisé à l’échelle d’un État a peu de chances de voir le jour

    • En réalité, il semble qu’après l’instauration de ces restrictions par Anthropic, le département de la Défense ait interdit tous les usages liés à la défense
      (Modification ultérieure : ajout d’une blague sur le fait de se demander s’il faut aller au lavage auto à pied ou en voiture)
    • Le cœur du débat, c’est qu’Anthropic voulait interdire la surveillance intérieure et les armes entièrement autonomes, alors que le département de la Défense voulait les autoriser dès lors qu’il s’agissait d’un « usage légal »
  • Il est étrange de voir le gouvernement menacer publiquement une entreprise privée après l’échec des négociations
    On peut se demander ce qu’est devenue la liberté d’expression

    • À la remarque « Ce n’était pas la liberté d’expression ? », quelqu’un a répondu avec cynisme : « Tu t’es fait avoir par la pub »
  • Lien vers le post correspondant sur le compte Twitter officiel de la Maison-Blanche
    Tweet original de la Maison-Blanche
    Lien alternatif

  • Cette affaire pourrait envoyer un signal négatif à tout le secteur
    Si l’idée se répand qu’établir une ligne éthique claire conduit à être exclu des contrats publics, les entreprises auront intérêt à rendre leurs standards de sécurité plus flous

  • Il y a quelque chose d’ironique à voir une institution surnommée le « Department of War » dépendre de la puissance technologique
    Il est risible de voir des gens incapables de créer eux-mêmes la technologie critiquer Big Tech tout en suppliant d’y avoir accès
    Il faut saluer Anthropic pour avoir tenu bon sur ses principes
    J’espère qu’OpenAI saura aussi faire bouger les choses de l’intérieur, d’une autre manière

  • Au final, Anthropic pourrait être la seule grande entreprise tech à ne pas avoir vendu son âme

    • Mais il est difficile de dire qu’un labo d’IA financé par l’État ou par de grandes entreprises « n’a pas vendu son âme »
    • C’est optimiste, mais au fond il se peut qu’il s’agisse simplement d’exiger un prix plus élevé
  • Il y a des mouvements intéressants autour des déclarations de Trump
    Certains conseillers de la Maison-Blanche donnent pour consigne d’ignorer ses propos et de se concentrer sur la politique économique
    Le stratège politique James Blair pilote cette ligne, lui qui a contribué au succès de la campagne de Trump
    Il y a déjà eu par le passé des cas où un président était partiellement contrôlé par ses conseillers
    Il faudra voir quelles menaces se traduiront réellement en actes
    Article lié : article de The Atlantic / Wiki de James Blair

    • Quelqu’un a plaisanté : « Donc maintenant, il n’y a plus qu’à faire sortir les décrets via une machine à signature automatique ? »
  • Cette affaire ressemble à la meilleure des recommandations pour Anthropic

  • Certains commentaires demandaient aussi si toute cette histoire n’était pas du même genre que ces fausses infos sur un « navire-hôpital généré par IA en route vers le Groenland »