- Le département de la Défense américain (DoD) menace Anthropic d’invoquer le Defense Production Act, afin de l’obliger à fournir des modèles à usage militaire et à les adapter aux demandes de l’armée
- Anthropic refuse que ses modèles soient utilisés pour la surveillance de masse sur le territoire national ou pour des mises à mort autonomes sans contrôle humain, et, en représailles, le département de la Défense chercherait à désigner l’entreprise comme risque pour la chaîne d’approvisionnement (supply chain risk)
- Le département de la Défense est également en négociation avec Google et OpenAI pour les pousser à accepter les conditions refusées par Anthropic, en tentant de les mettre en concurrence
- En réponse, 709 employés actuels de Google et OpenAI (614 chez Google, 95 chez OpenAI) ont signé une lettre ouverte commune appelant les deux entreprises à faire front ensemble et à rejeter les exigences du département de la Défense
- Cette lettre constitue un geste symbolique de résistance interne et de solidarité sectorielle face à l’usage militaire abusif de l’IA
Principaux points de la lettre ouverte
- Le département de la Défense menace Anthropic d’invoquer le Defense Production Act et de la désigner comme risque pour la chaîne d’approvisionnement
- Les exigences visent à contraindre Anthropic à fournir ses modèles d’IA à l’armée et à les adapter aux besoins militaires
- Anthropic maintient son principe interne interdisant l’usage pour la surveillance intérieure et les armes autonomes létales
- Après le refus d’Anthropic, le département de la Défense a entamé des discussions avec Google et OpenAI
- La lettre décrit cela comme une stratégie visant à alimenter la peur qu’une autre entreprise cède en premier
- La lettre entend affirmer une position commune pour empêcher cette tentative de division
- La formule « cette stratégie ne fonctionne que si nous ignorons les positions des autres » souligne la nécessité de la solidarité
Signataires et participation
- 614 employés de Google et 95 employés d’OpenAI ont signé
- Tous ont été vérifiés comme employés actuels
- Certains ont signé sous leur vrai nom, mais la majorité a participé de manière anonyme (Anonymous)
- Les signatures pouvaient être anonymes ou nominatives, et toutes ont été vérifiées via une procédure de preuve d’emploi
- Méthodes de vérification : validation par e-mail d’entreprise, connexion à un Google Form ou envoi d’une photo de pièce d’identité, entre autres
- Les données personnelles des signataires anonymes sont supprimées automatiquement dans les 24 heures suivant la vérification
Portée de la lettre
- Un exemple clair, au sein des entreprises d’IA, de définition de limites éthiques à l’usage militaire
- Des employés de Google et d’OpenAI y expriment publiquement leur position selon laquelle les principes communs doivent primer sur la concurrence entre entreprises
- La lettre a une importance particulière comme contre-pouvoir interne du secteur face aux usages abusifs de l’IA pour la surveillance et la mise à mort autonome
3 commentaires
À ce niveau-là, on pourrait penser que les services de renseignement américains le développeraient eux-mêmes... D’autant plus qu’ils seraient probablement meilleurs pour collecter les données d’entraînement.
Waouh
Réactions sur Hacker News
Cette affaire semble avoir des implications bien plus larges pour l’économie américaine et pour l’État de droit dans son ensemble
Si le gouvernement peut utiliser des règles de passation de marchés créées au nom de la sécurité nationale pour punir Anthropic pour « manque de loyauté », alors d’autres entreprises comme Apple ou Amazon pourraient se retrouver exposées au même risque à l’avenir
C’est un tournant majeur pour les États-Unis
Il était judicieux qu’Anthropic précise clairement que ses modèles ne correspondaient pas aux objectifs de « mise à mort automatisée à grande échelle » du département de la Défense américain
Faire fonctionner des armes avec des LLM serait, historiquement aussi, une faute terrible
Si Anthropic s’effondre, ce sera un clou de plus dans le cercueil de la confiance envers les États-Unis
Les entreprises abonnées perdraient des outils essentiels sur un simple mot du président, et commenceraient à douter qu’il soit prudent de dépendre d’autres entreprises américaines
Aujourd’hui, ce qui prenait des années peut arriver en une journée à cause d’un seul post sur Truth Social
Au final, quelqu’un acceptera les demandes du département de la Défense, et même si Anthropic tient bon, cela ne changera pas l’issue
Le fait de les avoir désignés comme une « vulnérabilité de la chaîne d’approvisionnement » était une erreur. Ils auraient simplement pu utiliser le DPA, ce qui aurait été bien moins coûteux et plus discret
Comme autrefois les scientifiques fuyant l’Allemagne nazie vers les États-Unis pour rejoindre le projet Manhattan, cette fois ce sont les talents de l’IA qui partiront des États-Unis
Une surveillance de masse à l’intérieur du pays est peut-être supportable pour ses propres citoyens, mais comment les Américains réagiraient-ils si un autre pays faisait la même chose ?
Ce type de politique revient au final à permettre au monde entier de se surveiller mutuellement
Il donnait l’impression que la surveillance étrangère ou les armes autonomes seraient acceptables tant qu’elles ne menaçaient pas la vie des citoyens américains
Je me demande si cela reflète vraiment l’opinion de certains Américains, ou si c’est une formulation destinée à séduire les patriotes les plus extrêmes
Vu le comportement actuel du gouvernement, je m’inquiète de la manière dont ce genre de personnes sera traité
Les États-Unis ont régné trop longtemps comme superpuissance et semblent être tombés dans une addiction au pouvoir du type « nous avons toujours raison »
Une entreprise est au fond composée d’individus, donc quand le gouvernement impose une ligne politique, l’innovation meurt
Forcer des scientifiques et des ingénieurs brillants à se soumettre est un énorme gaspillage
En revanche, interrompre toute relation avec l’entreprise peut être excessif
Par exemple, si une société de tomates en conserve dit « ne les utilisez pas pour la guerre contre le terrorisme », il peut être rationnel que l’État évite cette entreprise
Même quand il perd du pouvoir, ce monopole ne disparaît pas. Encore plus si le dirigeant contrôle des figures influentes de la société en exploitant leurs faiblesses
Le refus par Anthropic de la « surveillance de masse domestique et des mises à mort autonomes » mentionné dans son communiqué est un piège
Le mot « domestique » n’a aucun sens.
Selon les accords Eyes, les pays contournent l’interdiction de surveiller leurs propres citoyens en partageant entre eux les données de leurs ressortissants
Au final, tous les États se surveillent mutuellement, et la loi n’est qu’un ornement destiné à rassurer le public
Les bots espions n’ont aucune notion de citoyenneté, et toute activité numérique devient un objet de surveillance
Si Google ou TikTok peuvent le faire, alors l’État ou des IA agentiques comme ChatGPT le peuvent évidemment aussi
Ce qui se joue ici n’est pas une question d’IA, mais un test de loyauté
Un échange entre financement public et loyauté, et un moment de choix qui finira par se présenter à tout le monde
Un monde où devenir complice finit par servir de preuve de loyauté
Donc il ne faut pas espérer, il faut exiger et résister
Des modèles comme EmbeddingGemma ou Qwen3 suffisent largement pour faire du clustering de données
Les États-Unis fonctionnent déjà comme une économie dirigée
Même pendant le Covid, la croissance reposait uniquement sur la dépense publique sous une façade de « secteur privé »
Si le département de la Défense n’a pas une IA meilleure que celle du privé, c’est un aveu d’incompétence
Il faut désormais réformer l’appareil militaire et remplacer ce leadership incompétent
Et le fait que l’État n’ait pas d’IA générative meilleure que celle d’Anthropic me paraît tout à fait normal
Même si le pouvoir change, le budget militaire continuera d’augmenter, et cet argent ira à des entreprises qui n’ont aucun scrupule à tuer des gens
L’avertissement d’Eisenhower est devenu réalité
Le capitalisme se distinguait simplement par le fait qu’il sélectionnait les élites sur la base des résultats, mais même cela s’est brouillé depuis 2011
Voici une chronologie des événements jusqu’ici
En parallèle des discussions visant à désigner Anthropic comme risque de sécurité de la chaîne d’approvisionnement, il y avait aussi la menace d’une prise de contrôle de l’entreprise au nom de la sécurité nationale
La prédiction est qu’OpenAI finira elle aussi de la même manière, avec privatisation des profits et socialisation des pertes
Un site collecte des données d’identité sur des salariés actuels ou anciens d’OpenAI et de Google ayant certaines opinions politiques
Il demande une vérification via email professionnel, photo de badge, etc., et stockerait ces données sur un cloud basé aux États-Unis
L’exploitant est anonyme, et ces données semblent pouvoir être utilisées par divers groupes à des fins très diverses
La phrase « Nous espérons que les dirigeants mettront de côté leurs différends et refuseront ensemble » sonne bien, mais il faut réfléchir à ce qui se passe si cet espoir s’effondre
Ce serait irréaliste en pratique, mais une telle décision forcerait le respect