- Anthropic affirme que l’annonce de désignation de risque pour la chaîne d’approvisionnement de Pete Hegseth n’a aucun fondement juridique et déclare qu’elle la contestera devant les tribunaux
- Au cours de plusieurs mois de négociations, Anthropic dit n’avoir demandé que deux exceptions : la surveillance intérieure de masse et les armes entièrement autonomes, et soutient que ces exceptions n’ont jusqu’ici affecté aucune mission gouvernementale
- Selon l’entreprise, les modèles d’IA de frontière actuels ne sont pas suffisamment fiables pour être utilisés dans des armes entièrement autonomes, et autoriser cet usage mettrait au contraire en danger les combattants américains et les civils
- La désignation de risque pour la chaîne d’approvisionnement a historiquement été réservée aux pays hostiles aux États-Unis, et son application publique à une entreprise américaine serait sans précédent
- Anthropic indique à ses clients que l’accès à Claude pour les clients ordinaires et les prestataires commerciaux n’est pas affecté, la mesure étant limitée aux activités liées aux contrats du département de la Défense
Contexte et déroulement des négociations
- Le secrétaire Hegseth a annoncé sur X qu’il ordonnait la désignation d’Anthropic comme risque pour la chaîne d’approvisionnement
- Cette mesure intervient après plusieurs mois de négociations, arrivées à une impasse, autour des deux exceptions demandées par Anthropic concernant l’usage militaire de Claude
- Exception 1 : surveillance intérieure de masse visant les Américains
- Exception 2 : armes entièrement autonomes
- Au moment de publier sa déclaration, Anthropic n’avait toujours reçu aucune notification officielle directe du département de la Défense ni de la Maison-Blanche sur l’état des négociations
Position d’Anthropic
- L’entreprise affirme avoir clairement indiqué au département de la Défense qu’elle soutient tous les usages légaux de l’IA liés à la sécurité nationale, à l’exception de ces deux cas
- Elle soutient que ces exceptions n’ont jusqu’à présent affecté aucune mission gouvernementale
- Anthropic maintient ces exceptions pour deux raisons :
- Les modèles d’IA de frontière actuels ne sont pas assez fiables pour être utilisés dans des armes entièrement autonomes, et les autoriser créerait un risque pour les combattants américains et les civils
- La surveillance intérieure de masse constitue une atteinte aux droits fondamentaux
Réponse juridique et inquiétudes sur le précédent
- La désignation de risque pour la chaîne d’approvisionnement est historiquement une mesure appliquée uniquement aux pays hostiles aux États-Unis, et son application publique à une entreprise américaine serait sans précédent
- Anthropic avertit que cette désignation est juridiquement infondée (legally unsound) et qu’elle créerait un précédent dangereux pour toutes les entreprises américaines négociant avec le gouvernement
- L’entreprise précise qu’aucune menace ni sanction du département de la Défense ne la fera changer de position sur la surveillance intérieure de masse et les armes entièrement autonomes
- Elle déclare qu’elle contestera cette désignation devant les tribunaux
Impact pour les clients
- Hegseth a laissé entendre que toutes les transactions avec Anthropic des entreprises travaillant avec l’armée seraient restreintes, mais Anthropic rétorque que le secrétaire ne dispose d’aucune autorité légale pour soutenir une telle mesure
- Une désignation de risque pour la chaîne d’approvisionnement au titre de 10 USC 3252 ne peut s’appliquer que lorsque Claude est utilisé dans le cadre d’un contrat avec le département de la Défense, et ne peut pas affecter les activités du prestataire pour d’autres clients
- Portée concrète de l’impact :
- Si vous êtes un client individuel ou détenez un contrat commercial avec Anthropic : aucun impact sur l’accès à Claude via l’API, claude.ai, etc.
- Si vous êtes un prestataire du département de la Défense : même en cas d’adoption officielle, l’impact se limiterait à l’usage de Claude dans le cadre des contrats avec le département de la Défense, sans effet sur les autres usages
Orientation future d’Anthropic
- Depuis juin 2024, en tant que première entreprise d’IA de frontière à avoir déployé des modèles sur les réseaux classifiés du gouvernement américain, Anthropic affirme soutenir les combattants américains et dit vouloir continuer à le faire
- Sa priorité absolue est d’éviter toute interruption de service pour les clients à cause de cette situation et d’assurer une transition fluide pour l’armée et les opérations militaires américaines
- L’entreprise exprime sa gratitude envers les acteurs du secteur, les décideurs politiques, les anciens militaires et le grand public qui lui ont récemment apporté leur soutien
1 commentaires
Commentaires Hacker News
La position d’Anthropic cette fois-ci est vraiment admirable
Reconnaître honnêtement qu’il est impossible de prévoir comment une technologie puissante pourrait être détournée est une attitude intelligente et courageuse
Il y a quelque chose d’ironique à voir Anthropic ou OpenAI collecter des données utilisateurs comme s’ils surveillaient le monde entier, tout en réagissant vivement à la possibilité que la même chose se produise dans leur propre pays
Surtout quand on voit qu’ils analysent même les historiques de chat dans les rapports liés à la Chine, la vie privée n’existe en pratique plus vraiment
J’espère qu’Anthropic tiendra bon même dans cette situation
Cette attitude me les rend au contraire encore plus sympathiques
J’aimerais qu’ils n’aident pas “Big Brother” à voir encore davantage
Si cela conduit à un renforcement de la surveillance, c’est peut-être le moment de se demander sérieusement s’il faut continuer
Peut-être qu’il faut désormais réfléchir à des moyens de perturber leurs jeux de données d’entraînement
Je me demande si Anthropic est la première entreprise à s’opposer frontalement à l’administration actuelle
Voir la jurisprudence associée : Learning Resources, Inc. v. Trump
Voilà ce qu’est un vrai leadership
C’est complètement différent du silence et de l’alignement que montrent les grandes entreprises tech
Cette déclaration donne l’impression d’un message très poli du genre “essaie donc pour voir”
Anthropic montre une attitude de fidélité à ses principes, et s’ils tiennent jusqu’au bout, je pense qu’ils ont de bonnes chances de l’emporter
Résumé du contenu de la déclaration
Le secrétaire Hegseth a dit que “les entreprises qui traitent avec l’armée ne pourront plus non plus traiter avec Anthropic”, mais cela n’a aucun fondement juridique
Selon le 10 USC 3252, la ‘désignation de risque pour la chaîne d’approvisionnement’ ne s’applique qu’à l’utilisation de Claude dans les contrats du Department of War
Autrement dit, cela n’a aucun impact sur l’utilisation de l’API Claude ou de claude.ai par les utilisateurs ordinaires ou les clients commerciaux
Cela pourrait même toucher des entreprises comme Google, qui fournissent des ressources de calcul à Anthropic
Si la loi fonctionne correctement, les dégâts devraient être limités, mais tout dépendra jusqu’où l’administration voudra aller
Personnellement, je n’ai presque aucune confiance dans le système juridique ; au final, cela semble surtout être une question de volonté politique
Cela donnerait lieu à une bataille judiciaire, mais la plupart des entreprises ne prendront sans doute pas un tel risque et finiront par céder
Le titre semble erroné
En réalité, c’est une “déclaration destinée aux clients en réponse aux propos du secrétaire au Department of War Pete Hegseth”
Ce type de réponse pourrait au contraire toucher un point sensible chez l’adversaire et provoquer des tensions supplémentaires