- Le secrétaire américain à la Défense a adressé à Anthropic un ultimatum exigeant que l’entreprise fournisse sa technologie d’IA sans restrictions d’usage militaire
- Le département de la Défense a menacé de désigner Anthropic comme entreprise présentant un « risque pour la chaîne d’approvisionnement » (supply chain risk) si elle refusait
- Anthropic a publiquement affirmé son principe consistant à interdire l’usage pour les systèmes d’armes autonomes et à des fins de surveillance
- En janvier 2026, Anthropic a réaffirmé ce principe en soupçonnant que son IA ait été utilisée dans une attaque contre le Venezuela dans le cadre de sa collaboration avec Palantir
- L’EFF souligne que, malgré la pression du gouvernement, les entreprises technologiques ne doivent pas être réduites au rôle d’outils de surveillance
La pression du département de la Défense et la position d’Anthropic
- Le secrétaire américain à la Défense fait pression sur Anthropic en exigeant un accès à sa technologie sans restrictions militaires
- Si Anthropic refuse, elle pourrait être désignée comme présentant un « risque pour la chaîne d’approvisionnement », ce qui bloquerait ses relations commerciales avec le département de la Défense
- Cette désignation est décrite comme une mesure généralement appliquée aux entreprises qui commercent avec des pays surveillés par les autorités fédérales, comme la Chine
- Anthropic maintient sa position selon laquelle elle ne soutiendra pas l’usage pour des systèmes d’armes autonomes ni à des fins de surveillance
- Il s’agit, selon le CEO Dario Amodei, de « deux lignes rouges à ne pas franchir », et l’entreprise précise que des examens stricts et des garde-fous sont nécessaires pour prévenir les abus
- Les principes fondamentaux de sécurité de l’IA d’Anthropic et la Constitution de Claude sont publiés sur son site web
Contexte de la controverse
- En 2025, Anthropic a été présentée comme la première entreprise d’IA autorisée à traiter des informations classifiées
- En janvier 2026, la controverse a commencé lorsque l’entreprise a pris connaissance d’indices selon lesquels son IA aurait été utilisée dans une attaque contre le Venezuela pendant sa collaboration avec Palantir
- Amodei a ensuite publié une lettre réaffirmant l’interdiction de l’usage à des fins de surveillance et pour les armes autonomes
- Le gouvernement américain cherche actuellement à obtenir un changement de politique d’Anthropic en brandissant la menace d’une résiliation de contrat
La position de l’EFF
- L’EFF souligne que les entreprises ne doivent pas abandonner leurs principes en matière de droits humains et de libertés civiles sous la pression du gouvernement
- Elle précise que, si beaucoup d’entreprises technologiques échouent à respecter leurs principes pour diverses raisons, notamment le profit, la contrainte gouvernementale ne doit pas en être une
- Les clients d’entreprise, le grand public et les ingénieurs attendent d’Anthropic qu’elle respecte ses principes
- L’EFF avertit qu’il est important que l’ensemble du secteur technologique ne devienne pas un outil du système de surveillance
Sujets liés
- Classé parmi les enjeux liés à l’intelligence artificielle (IA) et au machine learning
- L’EFF présente cette affaire comme une question de frontière entre l’éthique de l’IA et la surveillance gouvernementale
1 commentaires
Avis sur Hacker News
Au fond, tant que les gens ne se lèveront pas pour imposer un changement, j’ai du mal à voir comment la situation pourrait s’améliorer
Cela dit, Anthropic semble être la seule grande entreprise à avoir au moins une discussion sur la sécurité, en disant par exemple qu’elle n’utilisera pas l’IA pour la surveillance ou les technologies létales de guerre
Mais comme l’administration actuelle pousse les entreprises dans une direction antidémocratique, je ne suis pas certain qu’Anthropic tienne jusqu’au bout. Je vais voir ce qui se passe ce vendredi
Cette administration a été élue grâce au soutien des milliardaires de la tech, et je pense qu’ils ont peut-être créé cette situation délibérément pour obtenir l’accès aux données et capter des fonds publics
Le résultat, c’est justement un renforcement de la surveillance. Du point de vue des victimes, dire qu’il faut réduire la surveillance peut sembler déconnecté du réel
Au final, ce sont des entreprises de surveillance, et c’est une partie du problème
L’État est censé travailler pour les citoyens, et il devrait non pas étendre la surveillance mais la limiter par la loi. La Constitution est justement là pour ça
Mais aujourd’hui, à part Anthropic, tout le monde a changé. Même Apple ne semble plus prêt à résister aux demandes du gouvernement
J’utilise Apple depuis 25 ans, mais ma confiance est désormais totalement brisée. J’espère qu’Anthropic préservera au moins ses principes et son courage
Et Anthropic pousse aussi le projet de loi KOSA via un financement de PAC
Si cette loi est adoptée, la liberté d’expression anonyme disparaîtra, et tous les contenus devront passer par une vérification faciale et d’identité
Cet article montre qu’ils poussent à la centralisation au nom de la sécurité et de la propriété intellectuelle
Moi, je pense qu’on devrait vivre dans un monde où chacun peut faire tourner une AGI open source sur son propre PC
Répéter sans cesse l’expression « dialogue constructif » avec le gouvernement donne surtout une impression de manque de transparence
C’était à l’époque de l’affaire San Bernardino
Elles génèrent des revenus via la collecte de télémétrie et accumulent des données au nom de la résolution des problèmes des environnements multi-tenant
Au final, les utilisateurs sont attirés par la gratuité puis deviennent les victimes d’un vendor lock-in
De ce que j’ai vu ces vingt dernières années, il s’agissait surtout de transactions négociées, et au final c’était du business
Dire « si tu n’obéis pas, connecte ton IA à mon système », c’est comme un braqueur de banque qui tendrait son arme au caissier
Une part importante de leur valorisation repose déjà sur leur capacité à coopérer avec la surveillance gouvernementale. Ce ne sont pas des victimes, mais des complices
La vitesse de progression de l’intelligence en IA est trop rapide, et un jour les humains finiront par perdre le contrôle
Les recherches actuelles sur la sécurité ou les politiques de scaling responsable ne font au fond que gagner du temps, sans changer la trajectoire elle-même. C’est ça qui me fait le plus peur
Dans la conférence de Steve Blank, il explique qu’avant les années 1980, la plupart des startups de la Silicon Valley avaient démarré avec des financements militaires
Aujourd’hui encore, des technologies stratégiques comme Internet, la recherche ou l’IA font l’objet de contrôle. Nous donnons nos données à Facebook ou Google, mais pas au gouvernement. Pourtant, au final, c’est la même information
La culture des développeurs était alors davantage centrée sur l’esprit hacker, la confidentialité façon cyberpunk et le mouvement open source, ce qui entrait en conflit avec la culture militaire