-
Cette affaire montre que l’IA générative est déjà profondément entrée dans l’infrastructure militaire, puisque Claude d’Anthropic a été utilisé, via le système Maven de Palantir, pour l’analyse du renseignement, l’identification de cibles et la simulation de l’armée américaine.
-
Le point de départ remonte au Project Maven du département de la Défense américain en 2017 ; en 2018, Google s’est retiré à la suite d’une contestation interne, puis Palantir et Anthropic ont comblé ce vide.
-
Début 2026, Anthropic a présenté au département de la Défense deux conditions — l’interdiction de la surveillance de masse des citoyens américains et l’interdiction des armes entièrement autonomes — mais elles n’ont pas été acceptées.
-
Au cours de ce processus, l’administration Trump a tenté d’exclure de fait Anthropic, et le département de la Défense a classé l’entreprise comme risque pour la chaîne d’approvisionnement.
-
Pourtant, à ce même moment, Claude continuait d’être utilisé pour des opérations liées à l’Iran, et au sein du département de la Défense, certains estimaient que son remplacement pourrait prendre plusieurs mois.
-
Cela signifie qu’une fois profondément intégré aux systèmes militaires, un modèle d’IA n’est plus un simple logiciel, mais devient une infrastructure difficile à remplacer.
-
Dans le même temps, OpenAI a élargi ses contrats avec le Pentagone, et Google a montré l’évolution des standards de l’ensemble du secteur en supprimant de ses principes IA en 2025 les mentions interdisant les armes et la surveillance.
-
La question centrale est la suivante : « Même si l’IA n’appuie pas directement sur la gâchette, jusqu’où peut-on encore parler de contrôle humain si elle intervient profondément dans la recommandation de cibles et la définition des priorités ? »
-
En fin de compte, cette affaire révèle qu’en temps de guerre, les principes éthiques du temps de paix vacillent facilement, et que le véritable pouvoir de négociation vient moins des principes que de la profondeur d’intégration et du coût de transition.
-
Ainsi, la question n’est plus simplement « faut-il autoriser les armes basées sur l’IA ? », mais plutôt qui remplacera, et à quelle vitesse, le jugement humain par les recommandations de l’IA.
Aucun commentaire pour le moment.