- Anthropic affirme que l’annonce de désignation de risque pour la chaîne d’approvisionnement de Pete Hegseth n’a aucun fondement juridique et déclare qu’elle la contestera devant les tribunaux
- Au cours de plusieurs mois de négociations, Anthropic dit n’avoir demandé que deux exceptions : la surveillance intérieure de masse et les armes entièrement autonomes, et soutient que ces exceptions n’ont jusqu’ici affecté aucune mission gouvernementale
- Selon l’entreprise, les modèles d’IA de frontière actuels ne sont pas suffisamment fiables pour être utilisés dans des armes entièrement autonomes, et autoriser cet usage mettrait au contraire en danger les combattants américains et les civils
- La désignation de risque pour la chaîne d’approvisionnement a historiquement été réservée aux pays hostiles aux États-Unis, et son application publique à une entreprise américaine serait sans précédent
- Anthropic indique à ses clients que l’accès à Claude pour les clients ordinaires et les prestataires commerciaux n’est pas affecté, la mesure étant limitée aux activités liées aux contrats du département de la Défense
Contexte et déroulement des négociations
- Le secrétaire Hegseth a annoncé sur X qu’il ordonnait la désignation d’Anthropic comme risque pour la chaîne d’approvisionnement
- Cette mesure intervient après plusieurs mois de négociations, arrivées à une impasse, autour des deux exceptions demandées par Anthropic concernant l’usage militaire de Claude
- Exception 1 : surveillance intérieure de masse visant les Américains
- Exception 2 : armes entièrement autonomes
- Au moment de publier sa déclaration, Anthropic n’avait toujours reçu aucune notification officielle directe du département de la Défense ni de la Maison-Blanche sur l’état des négociations
Position d’Anthropic
- L’entreprise affirme avoir clairement indiqué au département de la Défense qu’elle soutient tous les usages légaux de l’IA liés à la sécurité nationale, à l’exception de ces deux cas
- Elle soutient que ces exceptions n’ont jusqu’à présent affecté aucune mission gouvernementale
- Anthropic maintient ces exceptions pour deux raisons :
- Les modèles d’IA de frontière actuels ne sont pas assez fiables pour être utilisés dans des armes entièrement autonomes, et les autoriser créerait un risque pour les combattants américains et les civils
- La surveillance intérieure de masse constitue une atteinte aux droits fondamentaux
Réponse juridique et inquiétudes sur le précédent
- La désignation de risque pour la chaîne d’approvisionnement est historiquement une mesure appliquée uniquement aux pays hostiles aux États-Unis, et son application publique à une entreprise américaine serait sans précédent
- Anthropic avertit que cette désignation est juridiquement infondée (legally unsound) et qu’elle créerait un précédent dangereux pour toutes les entreprises américaines négociant avec le gouvernement
- L’entreprise précise qu’aucune menace ni sanction du département de la Défense ne la fera changer de position sur la surveillance intérieure de masse et les armes entièrement autonomes
- Elle déclare qu’elle contestera cette désignation devant les tribunaux
Impact pour les clients
- Hegseth a laissé entendre que toutes les transactions avec Anthropic des entreprises travaillant avec l’armée seraient restreintes, mais Anthropic rétorque que le secrétaire ne dispose d’aucune autorité légale pour soutenir une telle mesure
- Une désignation de risque pour la chaîne d’approvisionnement au titre de 10 USC 3252 ne peut s’appliquer que lorsque Claude est utilisé dans le cadre d’un contrat avec le département de la Défense, et ne peut pas affecter les activités du prestataire pour d’autres clients
- Portée concrète de l’impact :
- Si vous êtes un client individuel ou détenez un contrat commercial avec Anthropic : aucun impact sur l’accès à Claude via l’API, claude.ai, etc.
- Si vous êtes un prestataire du département de la Défense : même en cas d’adoption officielle, l’impact se limiterait à l’usage de Claude dans le cadre des contrats avec le département de la Défense, sans effet sur les autres usages
Orientation future d’Anthropic
- Depuis juin 2024, en tant que première entreprise d’IA de frontière à avoir déployé des modèles sur les réseaux classifiés du gouvernement américain, Anthropic affirme soutenir les combattants américains et dit vouloir continuer à le faire
- Sa priorité absolue est d’éviter toute interruption de service pour les clients à cause de cette situation et d’assurer une transition fluide pour l’armée et les opérations militaires américaines
- L’entreprise exprime sa gratitude envers les acteurs du secteur, les décideurs politiques, les anciens militaires et le grand public qui lui ont récemment apporté leur soutien
Aucun commentaire pour le moment.