2 points par GN⁺ 2026-03-01 | 3 commentaires | Partager sur WhatsApp
  • Le département de la Défense américain (DoD) menace Anthropic d’invoquer le Defense Production Act, afin de l’obliger à fournir des modèles à usage militaire et à les adapter aux demandes de l’armée
  • Anthropic refuse que ses modèles soient utilisés pour la surveillance de masse sur le territoire national ou pour des mises à mort autonomes sans contrôle humain, et, en représailles, le département de la Défense chercherait à désigner l’entreprise comme risque pour la chaîne d’approvisionnement (supply chain risk)
  • Le département de la Défense est également en négociation avec Google et OpenAI pour les pousser à accepter les conditions refusées par Anthropic, en tentant de les mettre en concurrence
  • En réponse, 709 employés actuels de Google et OpenAI (614 chez Google, 95 chez OpenAI) ont signé une lettre ouverte commune appelant les deux entreprises à faire front ensemble et à rejeter les exigences du département de la Défense
  • Cette lettre constitue un geste symbolique de résistance interne et de solidarité sectorielle face à l’usage militaire abusif de l’IA

Principaux points de la lettre ouverte

  • Le département de la Défense menace Anthropic d’invoquer le Defense Production Act et de la désigner comme risque pour la chaîne d’approvisionnement
    • Les exigences visent à contraindre Anthropic à fournir ses modèles d’IA à l’armée et à les adapter aux besoins militaires
    • Anthropic maintient son principe interne interdisant l’usage pour la surveillance intérieure et les armes autonomes létales
  • Après le refus d’Anthropic, le département de la Défense a entamé des discussions avec Google et OpenAI
    • La lettre décrit cela comme une stratégie visant à alimenter la peur qu’une autre entreprise cède en premier
  • La lettre entend affirmer une position commune pour empêcher cette tentative de division
    • La formule « cette stratégie ne fonctionne que si nous ignorons les positions des autres » souligne la nécessité de la solidarité

Signataires et participation

  • 614 employés de Google et 95 employés d’OpenAI ont signé
    • Tous ont été vérifiés comme employés actuels
    • Certains ont signé sous leur vrai nom, mais la majorité a participé de manière anonyme (Anonymous)
  • Les signatures pouvaient être anonymes ou nominatives, et toutes ont été vérifiées via une procédure de preuve d’emploi
    • Méthodes de vérification : validation par e-mail d’entreprise, connexion à un Google Form ou envoi d’une photo de pièce d’identité, entre autres
    • Les données personnelles des signataires anonymes sont supprimées automatiquement dans les 24 heures suivant la vérification

Portée de la lettre

  • Un exemple clair, au sein des entreprises d’IA, de définition de limites éthiques à l’usage militaire
  • Des employés de Google et d’OpenAI y expriment publiquement leur position selon laquelle les principes communs doivent primer sur la concurrence entre entreprises
  • La lettre a une importance particulière comme contre-pouvoir interne du secteur face aux usages abusifs de l’IA pour la surveillance et la mise à mort autonome

3 commentaires

 
chcv0313 2026-03-03

À ce niveau-là, on pourrait penser que les services de renseignement américains le développeraient eux-mêmes... D’autant plus qu’ils seraient probablement meilleurs pour collecter les données d’entraînement.

 
kimjoin2 2026-03-01

Waouh

 
GN⁺ 2026-03-01
Réactions sur Hacker News
  • Cette affaire semble avoir des implications bien plus larges pour l’économie américaine et pour l’État de droit dans son ensemble
    Si le gouvernement peut utiliser des règles de passation de marchés créées au nom de la sécurité nationale pour punir Anthropic pour « manque de loyauté », alors d’autres entreprises comme Apple ou Amazon pourraient se retrouver exposées au même risque à l’avenir
    C’est un tournant majeur pour les États-Unis

    • Le gouvernement est en train de se transformer en kakistocratie hors-la-loi qui réécrit les faits
      Il était judicieux qu’Anthropic précise clairement que ses modèles ne correspondaient pas aux objectifs de « mise à mort automatisée à grande échelle » du département de la Défense américain
      Faire fonctionner des armes avec des LLM serait, historiquement aussi, une faute terrible
    • Cela donne l’impression d’une version moderne de l’audition de sécurité d’Oppenheimer en 1954
    • Cette administration crée sans cesse des moments présentés comme des « tournants décisifs pour l’Amérique »
    • Je ne sais plus à qui faire confiance. J’ai cru bien trop longtemps que tout irait bien
    • En réalité, rien de tout cela ne paraît nouveau, on a plutôt l’impression que c’est devenu la normalité ordinaire
  • Si Anthropic s’effondre, ce sera un clou de plus dans le cercueil de la confiance envers les États-Unis
    Les entreprises abonnées perdraient des outils essentiels sur un simple mot du président, et commenceraient à douter qu’il soit prudent de dépendre d’autres entreprises américaines

    • Partout dans le monde, on a déjà le sentiment qu’il est risqué de dépendre d’entreprises américaines
      Aujourd’hui, ce qui prenait des années peut arriver en une journée à cause d’un seul post sur Truth Social
    • Pour être honnête, une part de moi souhaite voir Anthropic s’effondrer, mais les conséquences seraient si vastes que j’en subirais moi-même les dégâts
    • Dans n’importe quel pays, il existe des lois permettant de confisquer la propriété privée au nom de « l’intérêt national »
      Au final, quelqu’un acceptera les demandes du département de la Défense, et même si Anthropic tient bon, cela ne changera pas l’issue
      Le fait de les avoir désignés comme une « vulnérabilité de la chaîne d’approvisionnement » était une erreur. Ils auraient simplement pu utiliser le DPA, ce qui aurait été bien moins coûteux et plus discret
    • Anthropic finira par quitter les États-Unis
      Comme autrefois les scientifiques fuyant l’Allemagne nazie vers les États-Unis pour rejoindre le projet Manhattan, cette fois ce sont les talents de l’IA qui partiront des États-Unis
    • Dire « non » ne détruit pas la confiance, c’est tenir à ses principes
  • Une surveillance de masse à l’intérieur du pays est peut-être supportable pour ses propres citoyens, mais comment les Américains réagiraient-ils si un autre pays faisait la même chose ?
    Ce type de politique revient au final à permettre au monde entier de se surveiller mutuellement

    • Les Américains se croient exceptionnels, et pensent donc pouvoir faire ce que les autres n’auraient pas le droit de faire
    • J’ai presque l’impression qu’il vaudrait mieux être surveillé par la Chine que par les États-Unis. Le système judiciaire américain peut être bien plus effrayant
    • Le communiqué d’Anthropic était frappant
      Il donnait l’impression que la surveillance étrangère ou les armes autonomes seraient acceptables tant qu’elles ne menaçaient pas la vie des citoyens américains
      Je me demande si cela reflète vraiment l’opinion de certains Américains, ou si c’est une formulation destinée à séduire les patriotes les plus extrêmes
    • En tant que personne qui critique publiquement le gouvernement depuis plus de dix ans, j’ai le sentiment qu’une IA de surveillance ne me laissera jamais passer entre les mailles du filet
      Vu le comportement actuel du gouvernement, je m’inquiète de la manière dont ce genre de personnes sera traité
    • Quand on regarde les grands articles de recherche en IA aujourd’hui, on voit surtout des noms de chercheurs non américains
      Les États-Unis ont régné trop longtemps comme superpuissance et semblent être tombés dans une addiction au pouvoir du type « nous avons toujours raison »
  • Une entreprise est au fond composée d’individus, donc quand le gouvernement impose une ligne politique, l’innovation meurt
    Forcer des scientifiques et des ingénieurs brillants à se soumettre est un énorme gaspillage

    • Si l’État veut X et qu’une entreprise A répond « nous ne pouvons pas faire cela », rompre la relation commerciale est institutionnellement assez naturel
      En revanche, interrompre toute relation avec l’entreprise peut être excessif
      Par exemple, si une société de tomates en conserve dit « ne les utilisez pas pour la guerre contre le terrorisme », il peut être rationnel que l’État évite cette entreprise
    • La nature même de l’État est le monopole de la contrainte
      Même quand il perd du pouvoir, ce monopole ne disparaît pas. Encore plus si le dirigeant contrôle des figures influentes de la société en exploitant leurs faiblesses
    • On entend aussi le cynisme du genre : « Et alors, tu émigrerais où ? En Russie ? En Chine ? Aux Émirats arabes unis ? »
  • Le refus par Anthropic de la « surveillance de masse domestique et des mises à mort autonomes » mentionné dans son communiqué est un piège
    Le mot « domestique » n’a aucun sens.
    Selon les accords Eyes, les pays contournent l’interdiction de surveiller leurs propres citoyens en partageant entre eux les données de leurs ressortissants
    Au final, tous les États se surveillent mutuellement, et la loi n’est qu’un ornement destiné à rassurer le public

    • Nous nous sentons en sécurité parce que nous sommes citoyens américains, mais Internet n’a pas de frontières
      Les bots espions n’ont aucune notion de citoyenneté, et toute activité numérique devient un objet de surveillance
      Si Google ou TikTok peuvent le faire, alors l’État ou des IA agentiques comme ChatGPT le peuvent évidemment aussi
    • Anthropic aurait dû soutenir que l’armée américaine ne doit pas pouvoir appliquer à des citoyens américains des données collectées par des organismes étrangers
    • L’« espoir » n’est pas une stratégie
      Ce qui se joue ici n’est pas une question d’IA, mais un test de loyauté
      Un échange entre financement public et loyauté, et un moment de choix qui finira par se présenter à tout le monde
      Un monde où devenir complice finit par servir de preuve de loyauté
      Donc il ne faut pas espérer, il faut exiger et résister
    • En réalité, on peut même se demander si des LLM sont indispensables pour la surveillance intérieure
      Des modèles comme EmbeddingGemma ou Qwen3 suffisent largement pour faire du clustering de données
    • Alors pourquoi le département de la Défense veut-il à tout prix des LLM ? Voilà la vraie question
  • Les États-Unis fonctionnent déjà comme une économie dirigée
    Même pendant le Covid, la croissance reposait uniquement sur la dépense publique sous une façade de « secteur privé »
    Si le département de la Défense n’a pas une IA meilleure que celle du privé, c’est un aveu d’incompétence
    Il faut désormais réformer l’appareil militaire et remplacer ce leadership incompétent

    • Sans dépense publique, la croissance passerait en négatif, mais c’est vrai dans n’importe quel pays
      Et le fait que l’État n’ait pas d’IA générative meilleure que celle d’Anthropic me paraît tout à fait normal
    • Il est probable que les États-Unis finissent bientôt par renflouer OpenAI ou Nvidia au nom d’un sauvetage
      Même si le pouvoir change, le budget militaire continuera d’augmenter, et cet argent ira à des entreprises qui n’ont aucun scrupule à tuer des gens
      L’avertissement d’Eisenhower est devenu réalité
    • Certains font remarquer que les dépenses militaires ne sont pas le premier poste des dépenses fiscales
    • Que l’armée achète des choses inutiles n’a rien de nouveau
    • En réalité, ce type de structure d’économie contrôlée existe dans tous les pays
      Le capitalisme se distinguait simplement par le fait qu’il sélectionnait les élites sur la base des résultats, mais même cela s’est brouillé depuis 2011
  • Voici une chronologie des événements jusqu’ici

  • En parallèle des discussions visant à désigner Anthropic comme risque de sécurité de la chaîne d’approvisionnement, il y avait aussi la menace d’une prise de contrôle de l’entreprise au nom de la sécurité nationale
    La prédiction est qu’OpenAI finira elle aussi de la même manière, avec privatisation des profits et socialisation des pertes

    • George Hotz a déjà expliqué avoir lancé tinygrad parce qu’il craignait une possible nationalisation de Nvidia
    • Cette dynamique donne l’impression d’un fer à cheval où se rejoignent les extrêmes de la nationalisation. C’est à la fois absurde et amer
  • Un site collecte des données d’identité sur des salariés actuels ou anciens d’OpenAI et de Google ayant certaines opinions politiques
    Il demande une vérification via email professionnel, photo de badge, etc., et stockerait ces données sur un cloud basé aux États-Unis
    L’exploitant est anonyme, et ces données semblent pouvoir être utilisées par divers groupes à des fins très diverses

  • La phrase « Nous espérons que les dirigeants mettront de côté leurs différends et refuseront ensemble » sonne bien, mais il faut réfléchir à ce qui se passe si cet espoir s’effondre

    • L’humanité a toujours foncé vers les problèmes dans un état de division collective. Ce n’est qu’une forme de sélection naturelle
    • Si Anthropic respectait vraiment ses principes, elle pourrait même choisir de se dissoudre volontairement
      Ce serait irréaliste en pratique, mais une telle décision forcerait le respect
    • Il est difficile aujourd’hui de faire confiance au leadership technologique
    • Quand on voit la manière dont Google a géré les protestations internes, ou cette culture de plus en plus amazonisée, on peut penser qu’ils signeront discrètement le contrat ou écraseront l’opposition en interne
    • Je ne pense plus pouvoir placer de l’espoir dans des dirigeants comme Sam ou Dario