2 points par GN⁺ 2026-03-05 | 3 commentaires | Partager sur WhatsApp
  • Dario Amodei, PDG d’Anthropic, a vivement critiqué dans une note interne le contrat d’OpenAI avec le département de la Défense américain, le qualifiant de « démonstration de façade en matière de sécurité » (safety theater)
  • Anthropic disposait déjà d’un contrat militaire de 200 millions de dollars, mais les négociations ont échoué lorsque le département de la Défense a exigé un accès illimité à la technologie
  • OpenAI a ensuite signé un contrat avec le département de la Défense, et Sam Altman a affirmé qu’il incluait les mêmes garde-fous sur les lignes rouges que ceux réclamés par Anthropic
  • Amodei a déclaré à ses employés qu’Altman se présentait comme un « médiateur de paix et faiseur d’accords », et que le message d’OpenAI relevait de « mensonges flagrants »
  • Après cet accord, le nombre de suppressions de ChatGPT a bondi de 295 %, tandis que l’opinion publique s’est montrée plus favorable à Anthropic

Contenu de la note interne de Dario Amodei

  • Dans la note interne relayée par The Information, Amodei décrit l’accord entre OpenAI et le département de la Défense comme du « safety theater »
  • Il y écrit que « si OpenAI a accepté cet accord et que nous l’avons refusé, la raison principale est qu’ils se souciaient de rassurer leurs employés, alors que nous nous souciions réellement de prévenir les abus »
  • Il affirme qu’Altman se met en scène comme un « médiateur de paix et faiseur d’accords » et qualifie directement le message d’OpenAI de « straight up lies » (« mensonges flagrants »)

Pourquoi les négociations entre Anthropic et le département de la Défense ont échoué

  • Lors des négociations avec le département de la Défense américain, Anthropic a refusé l’exigence d’un accès illimité à sa technologie d’IA
    • L’entreprise voulait la garantie que le DoD n’utiliserait pas son IA pour de la surveillance de masse sur le territoire national ni pour le développement d’armes autonomes
    • Cette condition n’ayant pas été acceptée, le contrat de 200 millions de dollars a été abandonné
  • Le DoD a ensuite signé un nouveau contrat avec OpenAI
    • Sous l’administration Trump, le département de la Défense, désigné comme le « Department of War », a signé avec OpenAI à la place d’Anthropic
    • Sam Altman a annoncé que le nouveau contrat de défense contenait les mêmes protections sur les lignes rouges que celles demandées par Anthropic
  • Dans un billet de blog, OpenAI a précisé que ses systèmes d’IA pouvaient être utilisés pour « all lawful purposes » (« toutes les finalités légales »)
    • Selon le blog d’OpenAI, « le département de la Défense considère que la surveillance de masse intérieure est illégale et il a été clair dans nos échanges qu’il n’avait pas l’intention d’utiliser ces systèmes à cette fin »
    • OpenAI a expliqué que le fait que cela ne relève pas des usages autorisés au titre de la légalité a été explicitement inscrit dans le contrat

Les objections précises d’Anthropic

  • Anthropic a contesté précisément le fait que le département de la Défense demande à pouvoir utiliser son IA pour « any lawful use » (« tout usage légal »)
  • Des critiques soulignent que les lois peuvent changer, et que ce qui est illégal aujourd’hui pourrait être autorisé demain

Réaction du public et impact sur le marché

  • Après l’annonce du contrat entre OpenAI et le département de la Défense, les suppressions de ChatGPT ont bondi de 295 %
    • Cela montre que le public perçoit le contrat militaire d’OpenAI comme suspect ou opaque
  • Dans sa note, Amodei écrit que « cette tentative de spin/gaslighting ne prend pas vraiment auprès du public ni des médias ; la plupart voient le contrat d’OpenAI comme suspect et nous voient comme les héros »

Climat interne chez Anthropic

  • Amodei a insisté auprès des employés sur le fait qu’il fallait empêcher le « message déformé » d’OpenAI d’influencer les équipes en interne
  • Selon lui, la stratégie de communication d’OpenAI ne fonctionne qu’auprès de certains internautes et a échoué à convaincre plus largement

3 commentaires

 
jjpark78 2026-03-05

Mais alors pourquoi avoir bloqué opencode... snif...

 
GN⁺ 2026-03-05
Réactions sur Hacker News
  • Quand @sama a annoncé quelques heures plus tard qu’OpenAI signait le même contrat aux mêmes conditions à la place d’Anthropic, il m’a semblé évident que le DoW ou OAI déformait la réalité
    Si le DoW a rejeté les conditions d’Anthropic, alors celles d’OAI devaient en pratique être impossibles à faire respecter
    En les lisant, on avait l’impression que c’étaient des conditions du type « le DoW ne violera pas les règles qu’il s’est lui-même fixées »

    • OpenAI semble chercher à se protéger en se cachant derrière la formule « tous les usages légaux »
      Sam Altman a dit qu’ils intégreraient des garde-fous dans les modèles destinés au DoD pour empêcher les abus, mais cela revient à prétendre résoudre le problème de l’alignement (alignment) à court terme. Difficile à croire
    • Les utilisateurs ordinaires de ChatGPT feraient bien de supprimer leurs GPT et leur compte via le portail de confidentialité d’OpenAI
    • J’ai perdu tout respect non seulement pour Sam Altman, mais aussi pour Paul Graham
      J’aimais ses essais autrefois, mais ils m’ont de plus en plus donné l’impression d’un manque de recul sur lui-même et d’une vision où les startups sont toute la vie
      Cette fois encore, le voir prendre la défense d’Altman est extrêmement décevant. À voir son tweet, il détourne le regard de la réalité
      Il semble sans doute incapable de le critiquer à cause du sentiment de responsabilité d’avoir contribué à faire connaître Altman au monde
    • Le destin de Dario semble déjà scellé. C’est le pouvoir, et non le savoir ou la richesse, qui gouverne le monde
      La plupart des techniciens n’ont jamais étudié la philosophie politique, et l’histoire antique de l’anneau de Gygès reste toujours d’actualité
    • Moi aussi, dès le départ, j’ai pensé que le DoW et OAI cachaient tous les deux quelque chose. C’était trop évident. On aurait presque dû demander à ChatGPT avant l’annonce
  • On ne peut pas voir cela uniquement comme une question d’éthique. Des capitaux énormes sont en jeu
    L’entraînement des modèles de pointe coûte des sommes astronomiques, et seules des institutions comme le DoD peuvent en assumer la charge
    Le fait qu’Anthropic ait refusé un contrat avec le département de la Défense pour des raisons de sécurité est un pari majeur. En contrepartie, l’entreprise espère que son approche de l’IA constitutionnelle (Constitutional AI) sera récompensée par le marché
    OpenAI veut les financements du département de la Défense tout en conservant une image favorable aux consommateurs. Mais on ne peut pas courir deux lièvres à la fois

    • Le contrat représente environ 200 millions de dollars, ce qui n’est pas énorme pour des entreprises qui dépensent des milliards en infrastructure
      Avec cette affaire, Anthropic a peut-être même fini par générer davantage de revenus
      Le vrai risque serait que le gouvernement qualifie Anthropic de risque pour la chaîne d’approvisionnement
    • Plus qu’un « combat éthique », c’est, comme toujours, une lutte où les profits sont en jeu
  • Le fait qu’Anthropic s’oppose à la surveillance du DoD tout en collaborant avec Palantir peut sembler contradictoire

    • Mais Palantir a accepté les restrictions d’usage d’Anthropic, alors que le DoD les a refusées
      Vu que le DoD a rompu le contrat avant d’en signer un nouveau avec OpenAI, il est clair qu’il existait une différence concrète entre les conditions des deux entreprises
    • Palantir n’est pas une entreprise de surveillance directe comme Flock ; elle fournit une plateforme d’intégration de données
      Dans le cadre de contrats publics, elle intègre diverses données, y compris d’enquête et de sécurité, mais ne les collecte pas elle-même
      Voir l’article de Wired
    • Il est possible aussi que le contrat avec Palantir exclue la surveillance intérieure. Anthropic a peut-être posé comme condition une « interdiction de surveillance intérieure »
    • En réalité, Anthropic a explicitement indiqué que même dans sa collaboration avec Palantir, ses modèles ne seraient pas utilisés pour « la conception d’armes, la censure, la surveillance intérieure, la désinformation ou les cyberopérations malveillantes »
      Voir l’article de TechCrunch
    • Il est très probable que le contrat avec Palantir comportait des conditions comparables. Affirmer d’emblée le contraire paraît étrange
  • La note complète de Dario a été publiée ici

    • Il est frappant de voir une hostilité publique s’afficher entre les grands laboratoires d’IA
      Cela ressemble moins à une simple concurrence qu’à un conflit idéologique
      Et qualifier des employés d’OpenAI de « idiots crédules de Twitter » n’est pas un choix très habile du point de vue du recrutement
      Voir ce tweet d’exemple
    • Une version texte de la note est aussi disponible sur Pastebin
    • Dario affirme que le spin et le gaslighting d’OpenAI ne prennent pas auprès du public, et insiste sur le fait qu’il faut empêcher les employés d’OpenAI de se laisser piéger par le récit d’Altman
  • @pg a décrit @sama comme « quelqu’un qu’on pourrait larguer sur une île de cannibales et qui en serait le roi cinq ans plus tard », et aujourd’hui cela sonne comme une citation emblématique de la soif de pouvoir
    Dario semble être une personne sincère, rare à notre époque. J’espère qu’il ne vacillera pas

    • Mais Anthropic a aussi collaboré avec Palantir, donc l’entreprise n’est pas irréprochable non plus
      Au final, ce sont toutes des entreprises à but lucratif, et le fait qu’un camp ait tort ne rend pas automatiquement l’autre juste
      Voir l’annonce officielle
    • Si l’on regarde lequel des deux CEO cherche à exercer une influence officieuse sur les décisions de l’État, un seul tente vraiment d’étendre son pouvoir
      Je reconnais qu’Altman a défendu Anthropic sur la clause SCR, mais cela reste le strict minimum
    • Le culte excessif autour de Sam Altman me mettait mal à l’aise depuis longtemps. L’adoration sans critique est toujours suspecte
      Cette citation m’a semblé négative dès le départ. Cette communauté aussi devrait avoir une méfiance naturelle envers les hiérarchies
    • Ces bagarres en ligne entre milliardaires ressemblent au fond à une version tech de l’UFC. Il n’y a plus de raison pour le grand public de prendre parti
    • Je ne pensais pas que l’expression « avec le recul ? » pourrait un jour paraître aussi lourde de sens
  • En réalité, les deux laboratoires font de la « safety theater »
    Sans avoir résolu le problème de l’alignement, ils se livrent à une dangereuse course aux capacités sous la pression du marché

  • Cette affaire est l’occasion d’un appel à l’action : résilier son abonnement OpenAI et supprimer son compte
    Ne rien faire revient à cautionner

  • Sam Altman ment ? Ce n’est même plus surprenant

    • C’est quelqu’un qui empile mensonge sur mensonge
      Il rend les gens toujours plus dépendants de lui, jusqu’à ce que plus personne ne puisse l’écarter plus tard
  • OpenAI est dans une situation où l’entreprise cherche à survivre en dépendant des subventions publiques
    Sam et la direction ont déjà senti le danger et ont besoin de financements publics

    • Oui. La stratégie d’OpenAI est de devenir une entreprise trop grosse pour échouer
      Il y a aussi un calcul politique pour maintenir le marché à l’approche des élections
      Nvidia, Micron, Oracle et Microsoft sont tous pris dans cette dynamique
  • J’ai créé un site de chronologie qui récapitule les événements récents entre Anthropic, OpenAI et le gouvernement américain
    Lien du post HN

 
nemorize 2026-03-05

DoD : Department of Defense
..W : ..War