2 points par GN⁺ 2026-02-27 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Le secrétaire américain à la Défense a adressé à Anthropic un ultimatum exigeant que l’entreprise fournisse sa technologie d’IA sans restrictions d’usage militaire
  • Le département de la Défense a menacé de désigner Anthropic comme entreprise présentant un « risque pour la chaîne d’approvisionnement » (supply chain risk) si elle refusait
  • Anthropic a publiquement affirmé son principe consistant à interdire l’usage pour les systèmes d’armes autonomes et à des fins de surveillance
  • En janvier 2026, Anthropic a réaffirmé ce principe en soupçonnant que son IA ait été utilisée dans une attaque contre le Venezuela dans le cadre de sa collaboration avec Palantir
  • L’EFF souligne que, malgré la pression du gouvernement, les entreprises technologiques ne doivent pas être réduites au rôle d’outils de surveillance

La pression du département de la Défense et la position d’Anthropic

  • Le secrétaire américain à la Défense fait pression sur Anthropic en exigeant un accès à sa technologie sans restrictions militaires
    • Si Anthropic refuse, elle pourrait être désignée comme présentant un « risque pour la chaîne d’approvisionnement », ce qui bloquerait ses relations commerciales avec le département de la Défense
    • Cette désignation est décrite comme une mesure généralement appliquée aux entreprises qui commercent avec des pays surveillés par les autorités fédérales, comme la Chine
  • Anthropic maintient sa position selon laquelle elle ne soutiendra pas l’usage pour des systèmes d’armes autonomes ni à des fins de surveillance
    • Il s’agit, selon le CEO Dario Amodei, de « deux lignes rouges à ne pas franchir », et l’entreprise précise que des examens stricts et des garde-fous sont nécessaires pour prévenir les abus
    • Les principes fondamentaux de sécurité de l’IA d’Anthropic et la Constitution de Claude sont publiés sur son site web

Contexte de la controverse

  • En 2025, Anthropic a été présentée comme la première entreprise d’IA autorisée à traiter des informations classifiées
  • En janvier 2026, la controverse a commencé lorsque l’entreprise a pris connaissance d’indices selon lesquels son IA aurait été utilisée dans une attaque contre le Venezuela pendant sa collaboration avec Palantir
    • Amodei a ensuite publié une lettre réaffirmant l’interdiction de l’usage à des fins de surveillance et pour les armes autonomes
  • Le gouvernement américain cherche actuellement à obtenir un changement de politique d’Anthropic en brandissant la menace d’une résiliation de contrat

La position de l’EFF

  • L’EFF souligne que les entreprises ne doivent pas abandonner leurs principes en matière de droits humains et de libertés civiles sous la pression du gouvernement
    • Elle précise que, si beaucoup d’entreprises technologiques échouent à respecter leurs principes pour diverses raisons, notamment le profit, la contrainte gouvernementale ne doit pas en être une
  • Les clients d’entreprise, le grand public et les ingénieurs attendent d’Anthropic qu’elle respecte ses principes
    • L’EFF avertit qu’il est important que l’ensemble du secteur technologique ne devienne pas un outil du système de surveillance

Sujets liés

  • Classé parmi les enjeux liés à l’intelligence artificielle (IA) et au machine learning
  • L’EFF présente cette affaire comme une question de frontière entre l’éthique de l’IA et la surveillance gouvernementale

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.