4 points par GN⁺ 2026-02-27 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Deux domaines sont exclus du contrat : la surveillance intérieure de masse et les armes entièrement autonomes
  • Anthropic fait de l’utilisation de l’IA pour la défense des États-Unis et des démocraties une mission centrale, et coopère pour cela avec le département de la Défense et les agences de renseignement
  • Les modèles Claude sont utilisés sur des réseaux classifiés, dans des laboratoires nationaux et des organismes de sécurité nationale pour des missions comme l’analyse du renseignement, la planification opérationnelle et les cyberopérations
  • L’entreprise protège l’avance américaine en IA en cessant ses transactions avec des entreprises liées au Parti communiste chinois, en bloquant des cyberattaques faisant un usage abusif de l’IA et en soutenant un renforcement des contrôles à l’exportation sur les semi-conducteurs
  • Elle exclut toutefois explicitement deux domaines d’usage — la surveillance intérieure de masse et les armes entièrement autonomes — en raison de questions liées aux valeurs démocratiques et à la fiabilité technologique
  • Anthropic maintient ces garde-fous malgré les pressions du département de la Défense et souhaite poursuivre la coopération

Coopération d’Anthropic avec la défense et déploiement de l’IA

  • Anthropic est une entreprise pionnière, première à avoir déployé des modèles d’IA sur les réseaux classifiés du gouvernement américain
    • Elle a également été la première à fournir des modèles sur mesure pour des laboratoires nationaux et des clients relevant de la sécurité nationale
    • Les modèles Claude sont utilisés par le département de la Défense et plusieurs organismes de sécurité pour l’analyse du renseignement, la modélisation et la simulation, la planification opérationnelle et les cyberopérations
  • L’entreprise présente des exemples où elle a renoncé à des gains à court terme afin de préserver l’avance technologique américaine en IA
    • Elle a mis fin à ses transactions avec des entreprises liées au Parti communiste chinois, renonçant ainsi à des centaines de millions de dollars de chiffre d’affaires
    • Blocage de cyberattaques en provenance de Chine ayant détourné Claude à des fins malveillantes
    • Soutien à un renforcement des contrôles à l’exportation sur les semi-conducteurs afin d’assurer l’avantage technologique du camp démocratique

Deux exceptions fondées sur les valeurs démocratiques et la fiabilité technologique

  • Anthropic exclut explicitement deux cas d’usage dans lesquels l’IA pourrait porter atteinte aux valeurs démocratiques
    • Surveillance intérieure de masse : l’entreprise soutient les activités légales de renseignement à l’étranger, mais considère que la surveillance de masse à l’intérieur du pays va à l’encontre des principes démocratiques
      • La surveillance fondée sur l’IA permet de combiner automatiquement les données sur les déplacements individuels, l’usage du web et les relations sociales, rendant possible un profilage individuel à grande échelle
      • Le droit actuel ne suit pas le rythme des avancées technologiques, ce qui fait que certaines pratiques de surveillance restent légales
    • Armes entièrement autonomes : des armes capables d’identifier et d’attaquer une cible sans intervention humaine présentent, avec les technologies actuelles, un manque de fiabilité
      • Anthropic ne fournit pas de produits destinés à ce type d’armes
      • L’entreprise a proposé au département de la Défense une coopération de recherche pour améliorer la fiabilité, mais cela n’a pas été accepté
      • Elle précise qu’un déploiement est impossible à ce stade en raison de l’absence de supervision adéquate et de garde-fous

Exigences du département de la Défense et réponse d’Anthropic

  • Le département de la Défense exige des entreprises d’IA qu’elles acceptent tous les usages légaux et qu’elles retirent ces deux garde-fous
    • En cas de refus, il aurait averti qu’Anthropic pourrait être désignée comme risque de chaîne d’approvisionnement (supply chain risk) ou contrainte via le Defense Production Act
    • Ces deux mesures ont un caractère contradictoire : l’une traite l’entreprise comme une menace de sécurité, l’autre comme une technologie indispensable à la sécurité nationale
  • Malgré ces pressions, Anthropic déclare clairement ne pas pouvoir accéder à cette demande en conscience
    • L’entreprise reconnaît au département de la Défense le droit de choisir un autre prestataire, mais souhaite poursuivre la coopération tout en maintenant ces deux garde-fous
    • Même en cas de fin de contrat, elle promet d’assurer une transition fluide afin d’éviter toute perturbation des opérations ou de la planification militaires

Position à venir

  • Anthropic réaffirme sa volonté de soutenir la sécurité nationale des États-Unis
  • L’entreprise souhaite poursuivre sa coopération avec le département de la Défense, mais maintient qu’elle ne cédera pas sur ses principes de valeurs démocratiques et de sécurité technologique

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.