1 points par GN⁺ 2026-03-07 | 1 commentaires | Partager sur WhatsApp
  • Le département américain de la Défense a officiellement désigné Anthropic comme risque pour la chaîne d’approvisionnement et a pris des mesures pour bloquer les transactions avec les sous-traitants du Pentagone
  • Cette désignation s’applique habituellement à des entreprises de pays étrangers hostiles et constitue l’un des premiers cas où elle vise une entreprise américaine
  • Alors que le département de la Défense veut pouvoir utiliser l’IA pour tout usage légal, Anthropic exige des garanties explicites indiquant que sa technologie ne sera pas utilisée pour des armes autonomes ni une surveillance intérieure de masse
  • L’impact pourrait aussi être large pour les partenaires et investisseurs d’Anthropic, dont Lockheed Martin, Amazon et Google
  • Anthropic a annoncé une riposte judiciaire contre cette désignation, qui pourrait selon certaines analyses avoir un effet dissuasif sur les relations entre l’industrie de l’IA et le gouvernement

Désignation officielle et contexte

  • Le département de la Défense a officiellement notifié jeudi les dirigeants d’Anthropic, estimant que l’entreprise et ses outils d’IA constituent une menace pour la sécurité
  • Un haut responsable du département a déclaré : « Nous ne pouvons pas permettre qu’un fournisseur interfère avec la chaîne de commandement, limite l’usage légal de capacités critiques et mette en danger le personnel militaire »
  • Le secrétaire à la Défense Pete Hegseth avait annoncé la semaine dernière la désignation au titre du risque pour la chaîne d’approvisionnement, mais les deux parties ont continué à négocier en vue d’un accord

Opposition des positions

  • Le Pentagone exige d’Anthropic qu’il autorise l’usage de son IA pour tout usage légal
  • Anthropic demande des garanties explicites selon lesquelles sa technologie ne sera pas utilisée pour des armes autonomes ni une surveillance intérieure de masse
  • Anthropic a annoncé la semaine dernière qu’il contesterait cette désignation en justice

Portée de la désignation et controverse juridique

  • La désignation de risque pour la chaîne d’approvisionnement peut être appliquée de manière très large ou très restreinte
  • L’annonce faite la semaine dernière par Hegseth ordonnait à toutes les entreprises travaillant avec l’armée de ne pas commercer avec Anthropic ; certains analystes estiment que cela dépasse l’autorité légale du Pentagone
    • Selon ces analystes, le département de la Défense pourrait seulement interdire aux entreprises d’utiliser Claude pour des missions liées au Pentagone
  • Il s’agit de l’un des premiers cas d’application de cette désignation à une entreprise américaine, et certains avertissent qu’elle pourrait avoir un effet dissuasif sur d’autres entreprises souhaitant travailler avec le gouvernement

Mémo interne du CEO d’Anthropic

  • Selon The Information, dans un mémo envoyé aux employés la semaine dernière, le CEO Dario Amodei a écrit que l’administration ciblait Anthropic parce que l’entreprise n’avait pas adressé de « louanges dictatoriales à Trump » et s’était opposée à l’agenda de l’administration en matière d’IA
  • Le mémo critiquait également le concurrent OpenAI, qui a signé avec le département de la Défense un contrat portant sur l’usage de systèmes classifiés
    • Après des protestations de ses employés, OpenAI a ajouté explicitement cette semaine une clause d’interdiction de la surveillance au contrat

Usages militaires existants

  • Claude d’Anthropic était jusqu’ici la seule IA autorisée pour un usage dans des environnements classifiés, avant que xAI d’Elon Musk n’obtienne récemment la même approbation
  • Claude est actuellement utilisé par l’armée dans des opérations liées à l’Iran et a déjà été mobilisé dans une opération visant l’arrestation de l’ancien dirigeant vénézuélien Nicolás Maduro
  • Anthropic a un partenariat avec Palantir, entreprise de data mining qui fournit des logiciels au département de la Défense

Impact sur les partenaires et investisseurs

  • Cette mesure pourrait avoir de vastes conséquences pour les partenaires et investisseurs d’Anthropic, notamment Lockheed Martin, Amazon et Google

1 commentaires

 
GN⁺ 2026-03-07
Réactions sur Hacker News
  • Cette désignation s’applique normalement aux entreprises étrangères hostiles, donc la voir appliquée à une entreprise américaine pour un simple litige contractuel est choquante
    Ce genre de mesure risque à l’avenir de dissuader les entreprises américaines de signer des contrats avec le gouvernement
    Si l’État le décide, au lieu de rompre ou de renégocier des contrats existants, il peut carrément pousser vers une interdiction de commercer avec tout un secteur
    • Il y a une sorte d’atmosphère d’intimidation, du genre : « Belle entreprise, ce serait dommage qu’il lui arrive quelque chose… »
    • Le fascisme, par essence, c’est la fusion du pouvoir d’État et du pouvoir industriel
      Beaucoup de techniciens évitent les discussions politiques, mais c’est un exemple du fait que la politique finit toujours par retomber sur l’industrie technologique comme un boomerang
  • Il est terrible qu’une entreprise puisse être détruite pour des raisons politiques
    La société civile devrait être profondément inquiète face à ce type d’attaque
    • Un tel précédent pourrait ouvrir la voie à un gouvernement démocrate qui sanctionnerait des fournisseurs pour ses propres raisons politiques
      Une fois qu’un pouvoir existe, il finit toujours par revenir au camp opposé
    • Dire que c’est « inquiétant » est trop faible
      Les États-Unis sont déjà en train de devenir une société de contrôle au niveau de l’Allemagne nazie, et plus de la moitié des citoyens soutiennent cela
    • Si la société civile est déjà restée insensible à l’invitation de Poutine, aux actions militaires sans approbation du Congrès, aux menaces d’annexion de territoires alliés ou au fait que l’ICE tue ses propres citoyens, alors une simple désignation comme « risque pour la chaîne d’approvisionnement » ne déclenchera probablement aucune prise de conscience
  • Cette administration semble incapable de prendre en compte les effets de second et troisième ordre
    Comme elle franchit sans sanction les lignes rouges que les gouvernements précédents ne dépassaient pas, elle semble ne plus s’en soucier du tout
    • Cette incapacité a déjà été démontrée à de nombreuses reprises
      La fermeture de l’USAID en est un exemple représentatif : sous le prétexte simpliste de « ne pas dépenser l’argent des impôts pour aider des étrangers », elle a aussi sacrifié les intérêts américains
    • Franchir les tabous des gouvernements précédents semble désormais être devenu l’objectif en soi
  • Pour plus de contexte, il y a
    un tweet disant que le département de la Défense a désigné Anthropic comme risque pour la chaîne d’approvisionnement et
    un article de Reuters indiquant qu’Anthropic envisage une réponse judiciaire
  • Anthropic n’aurait dès le départ pas dû s’associer avec l’armée et les agences de renseignement
    Le problème, c’est d’avoir voulu traiter avec le diable tout en contrôlant les termes de l’accord
    Cela dit, il faut saluer le fait qu’ils aient essayé de maintenir leurs propres lignes rouges concernant l’usage de leur technologie
    • Selon la légende, le diable respecte exactement les termes du contrat
      Le problème vient des humains qui n’ont pas lu les petites lignes
    • L’armée n’est pas une organisation qui ne fait que bombarder
      Elle accomplit aussi beaucoup de choses dans des domaines non combattants, donc coopérer dans ces domaines n’est pas forcément mauvais
  • Le département de la Défense a agi comme annoncé, et OpenAI en a profité pour se faufiler dans la brèche
    Je me demande maintenant quel choix feront les signataires de notdivided.org
    • OpenAI n’a peut-être pas simplement saisi une opportunité ; selon un texte de Gary Marcus, il est possible qu’elle ait directement manipulé la situation
    • Le changement de nom du département de la Défense relève de l’approbation du Congrès, donc agir ainsi sans validation serait injustifié
      C’est également indiqué clairement dans l’article Wikipédia
    • J’ai du mal à prendre au sérieux les standards moraux de ces développeurs
      Ils ont déjà travaillé avec des entreprises à la réputation exécrable
  • J’ai fermé mon compte ChatGPT et basculé sur Claude
    Je ne fais que de petits tests gratuits, mais jusqu’ici j’en suis bien plus satisfait
    • Moi aussi, pour des raisons similaires, j’utilise Le Chat depuis quelques mois
      C’est suffisant pour les fonctions dont j’ai besoin, donc résilier mon abonnement ChatGPT a été une décision facile
    • Personnellement, je trouve l’interface CLI de Claude beaucoup plus pratique
      Elle utilise les fichiers locaux comme une sorte de mémoire, et on y accède directement avec un seul mot de commande
    • Mais si Claude était désigné comme risque pour la chaîne d’approvisionnement, alors des clouds comme AWS, Azure ou GCP seraient eux aussi en danger
      Il pourrait devenir impossible d’opérer aux États-Unis, avec à la clé une éventuelle délocalisation à l’étranger
  • Je me demande si cet épisode doit être retenu comme le jour où s’est opérée la transition d’une démocratie libérale vers une démocratie illibérale
    Si une autre décision de confiscation d’actifs d’entreprise survenait, ce serait alors clairement une preuve
    • Quand on demande aux Américains « à partir de quand considérerez-vous que les États-Unis ne sont plus une démocratie ? »,
      il est frappant de voir à quel point les réponses varient et à quel point l’éventail du déni est large
    • Si ce genre de cas se répète encore quelques fois, il faudra bien admettre que quelque chose va gravement de travers
    • N’aurait-on pas déjà dû s’en rendre compte quand une police secrète enlevait des gens ?
  • Article lié : archive.ph/IVDtq
  • Ce genre de harcèlement par le pouvoir ne peut être brisé que si tout le monde s’y oppose d’une seule voix
    Mais si certains cèdent (par exemple OpenAI), cela devient alors la nouvelle norme, et il y aura une prochaine cible
    • Mais je doute que la mentalité des milliardaires soit aussi simple que cela