3 points par GN⁺ 2026-02-28 | 3 commentaires | Partager sur WhatsApp
  • Le CEO d’OpenAI, Sam Altman, a annoncé être parvenu à un accord pour déployer des modèles sur le réseau classifié du département américain de la Défense (DoD)
  • L’accord inclut les principes d’interdiction de la surveillance de masse sur le territoire national et de responsabilité humaine dans l’usage de la force, y compris pour les systèmes d’armes autonomes, principes également approuvés par le département de la Défense
  • Les conditions prévoient la mise en place de garde-fous techniques pour garantir que les modèles fonctionnent comme prévu, un déploiement uniquement sur des réseaux cloud, ainsi que l’affectation de Field Deployment Engineers (FDE)
  • OpenAI demande que le département de la Défense propose ces mêmes conditions à toutes les entreprises d’IA, estimant qu’elles sont acceptables pour l’ensemble du secteur
  • L’entreprise dit espérer fortement une désescalade par des accords raisonnables plutôt que par des mesures juridiques ou gouvernementales

Contenu de l’accord

  • OpenAI a conclu un accord pour déployer des modèles sur le réseau classifié du département de la Défense
  • Durant les négociations, OpenAI estime que le département de la Défense a montré un profond respect pour la sécurité et une volonté de travailler en partenariat pour obtenir le meilleur résultat possible

Principes de sécurité

  • La sécurité de l’IA et la large distribution de ses bénéfices sont au cœur de la mission d’OpenAI
  • Deux principes de sécurité clés inclus dans l’accord :
    • Interdiction de la surveillance de masse sur le territoire national
    • Responsabilité humaine dans l’usage de la force, y compris pour les systèmes d’armes autonomes
  • Le département de la Défense approuve également ces principes, les intégrera dans la loi et les politiques, et les a explicitement inscrits dans l’accord

Garde-fous techniques et conditions de déploiement

  • Des garde-fous techniques (technical safeguards) seront mis en place pour que les modèles fonctionnent comme prévu, ce que le département de la Défense souhaitait également
  • Des Field Deployment Engineers (FDE) seront mobilisés pour accompagner les modèles et garantir leur sécurité
  • Le déploiement se fera uniquement sur des réseaux cloud

Demande d’extension à l’ensemble du secteur

  • OpenAI a demandé au département de la Défense de proposer ces mêmes conditions à toutes les entreprises d’IA
  • OpenAI estime qu’il s’agit de conditions que toutes les entreprises peuvent accepter
  • L’entreprise exprime son fort souhait de voir la situation s’apaiser par des accords raisonnables plutôt que par des mesures juridiques ou gouvernementales

3 commentaires

 
xguru 2026-02-28

Au final, le département de la Défense américain a laissé de côté Anthropic pour choisir OpenAI, mais il y a une différence de formulation assez révélatrice.

OpenAI a proposé en même temps des mécanismes de mise en œuvre concrets comme la mise en place de garde-fous techniques, le déploiement de FDE (ingénieurs de terrain) et un déploiement dédié au cloud
Anthropic a demandé des clauses d’exception au niveau des conditions d’utilisation

Du point de vue du département de la Défense, cela a apparemment été perçu comme le fait qu’« une entreprise privée exerce un droit de veto sur des cas d’usage individuels », d’où une annonce qui ressemble presque à une sanction pour offense.

Cet accord a été annoncé peu après qu’Anthropic a été désignée comme risque pour la chaîne d’approvisionnement, et
si l’on en croit l’article d’Axios, le département de la Défense s’est servi de son affrontement avec Anthropic pour donner le ton dans ses négociations avec d’autres entreprises d’IA ;
OpenAI, sous cette pression, a donc réussi à conclure un accord sous une forme acceptable pour le Pentagone

La différence dans la formulation officielle est aussi frappante.

Sam Altman a déclaré que « le département de la Défense a montré un profond respect pour la sécurité », et
du côté d’Anthropic, le ton est resté jusqu’au bout celui de « nous ne pouvons pas en conscience accepter les exigences du département de la Défense »

Même avec des principes similaires, il semble que la différence ait surtout porté sur le fait de laisser ou non au département de la Défense une porte de sortie honorable ;
au final, comme l’acceptation d’OpenAI rendait la situation un peu bancale en apparence,
Sam Altman a ajouté à la fin : « veuillez proposer ces conditions à l’identique à toutes les entreprises d’IA »,
ce qui ressemble à un message indirect demandant d’assouplir les mesures prises contre Anthropic.

 
lamanus 2026-03-01

Même avec un contrat du même niveau, la confiance qu’il inspire et l’image qu’il renvoie me semblent vraiment très différentes.
Je vais peut-être résilier mon abonnement à GPT.

 
GN⁺ 2026-02-28
Avis sur Hacker News
  • Je ne comprends pas que des employés d’OpenAI aient participé à la signature de « We Will Not Be Divided » et continuent malgré tout à y travailler après cette affaire
    Si OpenAI avait maintenu les conditions exigées par Anthropic, le gouvernement n’aurait probablement pas approuvé ce contrat
    Au final, on ne peut que supposer qu’il existe un accord implicite selon lequel OpenAI n’appliquera pas réellement les lignes rouges
    • À mon avis, quand Sam Altman a été renvoyé puis réintégré, les employés centrés sur la sécurité étaient déjà partis
      Ceux qui restent maintenant sont surtout là pour les actions
    • Pourtant, OpenAI aurait aussi inclus dans le contrat des principes comparables à ceux d’Anthropic
      Il y serait écrit « interdiction de la surveillance de masse sur le territoire national » et « responsabilité humaine dans l’usage de la force », et le DoW (Department of War) aurait aussi accepté cela
    • Cette affaire laisse finalement entendre que toutes les grandes entreprises d’IA finiront par signer pour des usages militaires opaques de la technologie
    • Vu l’année écoulée sous l’administration Trump, ce type de négociation irrationnelle n’a rien de surprenant
      Gaspiller inutilement du capital politique et conclure un accord encore pire, c’est leur manière de faire
    • En arrière-plan, j’y vois une intention politique du gouvernement de garder le contrôle sur les entreprises
      OpenAI a peut-être proposé les mêmes conditions qu’Anthropic, mais le gouvernement a pu fermer les yeux grâce à l’argent du lobbying ou à l’effet RP
  • Si cette affaire vous déplaît, je pense qu’il faut voter avec son portefeuille
    J’ai supprimé ChatGPT, annulé mon abonnement, et décidé d’investir davantage dans Anthropic
    • J’avais moi aussi annulé mon abonnement à Claude à peu près à la même période, mais cette affaire m’a poussé à me réabonner à Claude
      Je trouve qu’une attitude fondée sur des principes compte, et je ne fais plus confiance à OpenAI
    • Je viens moi aussi d’annuler mon abonnement
      Le peu de respect qu’il me restait pour Sam Altman a disparu, et la réalité d’une IA contaminée par la cupidité humaine me répugne
      Les idéaux du départ, quand OpenAI était une organisation à but non lucratif, ont complètement disparu
      Tout le monde devrait se désabonner et taxer lourdement ce genre d’entreprises et de CEO
    • En réalité, j’étais déjà passé à Claude et Gemini il y a 4 mois
      Rien qu’en termes de qualité produit, OpenAI n’a plus le niveau d’avant
    • J’ai supprimé toutes mes conversations et effacé complètement mon compte
    • Je suis du même avis. Je ne dépenserai désormais pas un centime de plus pour OpenAI
      Je vais attendre de voir quels choix fera Google
  • Je pense que Sam Altman est l’une des personnes les plus difficiles à croire dans le secteur de l’IA
    Des formulations comme « responsabilité humaine dans l’usage de la force » sonnent chez lui comme des déclarations d’évitement
    • « Responsabilité humaine » n’est pas la même chose que « décision humaine »
      Cela signifie qu’au final, les armes autonomes létales restent possibles
      Même si le président ou le département de la Défense est désigné comme « responsable », il est en pratique impossible de leur demander des comptes
  • Le simple fait d’appeler un ministère « Department of War » en dit déjà long
  • Il existe une explication sur la différence entre les contrats d’OpenAI et d’Anthropic donnée par le sous-secrétaire d’État
    Dans le premier message, il affirme que le contrat d’OpenAI inclut des garde-fous fondés sur les contraintes juridiques
    Dans le second message, il soutient que le contrat a été conclu sur la base de « tout usage légal », ce qui serait une approche laissant l’autorité au système démocratique
    Anthropic aurait refusé ce compromis
    • Mais la promesse du gouvernement de « ne faire que des choses légales » ne me rassure absolument pas
      Il y a déjà eu dans le passé de nombreux cas où des actes illégaux ont été présentés comme légaux, et même des situations où la loi elle-même a été modifiée
      En fin de compte, la loi seule ne peut pas empêcher les abus de pouvoir du gouvernement
    • Les propos de ce sous-secrétaire relèvent simplement de la communication de l’exécutif, pas d’une analyse objective
    • En plus, il n’a pas participé lui-même aux négociations
      Même si son explication est correcte, difficile d’y croire tant qu’un média fiable n’a pas publié l’intégralité du contrat
      Si c’est vrai, alors un boycott d’OpenAI et de l’armée américaine semblerait être une réponse appropriée
  • Selon CNN, OpenAI aurait aussi les mêmes lignes rouges (redlines) qu’Anthropic
    Article lié
    • Mais il est illusoire d’attendre une cohérence logique de l’administration Trump
      Le problème n’est peut-être pas les lignes rouges, mais le fait que le gouvernement ait vu Anthropic comme un adversaire politique
  • Au départ, cela m’a semblé être l’opportunisme habituel de Sam Altman, et j’ai envisagé d’annuler mon abonnement
    Mais en regardant cela de manière plus objective, le point clé est de savoir si c’est le gouvernement ou l’entreprise d’IA qui décide de ce qu’est un « usage légal »
    D’après ce tweet, Anthropic voulait intégrer directement ce critère dans la constitution de Claude
    Au final, j’ai annulé mon abonnement en attendant une position claire d’OpenAI
    • En réalité, le DoW acceptait les conditions d’Anthropic depuis plus d’un an
      Puis il a soudainement exigé une renégociation en menaçant de désignation SCR et d’acquisition forcée via le DPA
      Si le contrat d’OpenAI est similaire à celui d’Anthropic, alors c’est vraiment doublement injuste et hypocrite
  • Il est étrange que le contrat ait été signé alors qu’OpenAI aurait les mêmes lignes rouges qu’Anthropic
    • Sam a probablement promis au département de la Défense qu’il s’agissait de lignes rouges temporaires
      Avec le temps, il autoriserait des modèles pour les armes autonomes, et les fonctions de surveillance pourraient être contournées via Palantir
    • On dirait que Sam a utilisé sa proximité avec le gouvernement pour contenir Anthropic
    • On ne peut pas faire confiance à Sam
      Il est très possible que ce soit un mensonge stratégique visant à faire passer Anthropic pour le méchant
    • Cela donne l’impression d’une attitude à double face du type « j’adhère aux principes, mais je ne les appliquerai pas moi-même »
    • Au fond, le véritable objectif était de « faire converger les contrats IA vers Sam », et la polémique sur les lignes rouges n’était qu’un prétexte
  • J’ai moi aussi supprimé l’app et annulé mon abonnement
    Sans sa base d’utilisateurs, OpenAI ne pourra pas maintenir sa valorisation actuelle, largement surestimée
    D’autres modèles sont déjà largement assez compétitifs
  • Il faudrait désormais un groupe capable de rassembler des techniciens attachés à l’éthique
    Je suis lassé de ce genre de comportements corrompus
    • Il nous faut un nouveau drapeau qui permette d’exprimer facilement qu’on est un « technologue éthique » et de se reconnaître entre nous