- Dario Amodei, PDG d’Anthropic, a vivement critiqué dans une note interne le contrat d’OpenAI avec le département de la Défense américain, le qualifiant de « démonstration de façade en matière de sécurité » (
safety theater)
- Anthropic disposait déjà d’un contrat militaire de 200 millions de dollars, mais les négociations ont échoué lorsque le département de la Défense a exigé un accès illimité à la technologie
- OpenAI a ensuite signé un contrat avec le département de la Défense, et Sam Altman a affirmé qu’il incluait les mêmes garde-fous sur les lignes rouges que ceux réclamés par Anthropic
- Amodei a déclaré à ses employés qu’Altman se présentait comme un « médiateur de paix et faiseur d’accords », et que le message d’OpenAI relevait de « mensonges flagrants »
- Après cet accord, le nombre de suppressions de ChatGPT a bondi de 295 %, tandis que l’opinion publique s’est montrée plus favorable à Anthropic
Contenu de la note interne de Dario Amodei
- Dans la note interne relayée par The Information, Amodei décrit l’accord entre OpenAI et le département de la Défense comme du « safety theater »
- Il y écrit que « si OpenAI a accepté cet accord et que nous l’avons refusé, la raison principale est qu’ils se souciaient de rassurer leurs employés, alors que nous nous souciions réellement de prévenir les abus »
- Il affirme qu’Altman se met en scène comme un « médiateur de paix et faiseur d’accords » et qualifie directement le message d’OpenAI de «
straight up lies » (« mensonges flagrants »)
Pourquoi les négociations entre Anthropic et le département de la Défense ont échoué
- Lors des négociations avec le département de la Défense américain, Anthropic a refusé l’exigence d’un accès illimité à sa technologie d’IA
- L’entreprise voulait la garantie que le DoD n’utiliserait pas son IA pour de la surveillance de masse sur le territoire national ni pour le développement d’armes autonomes
- Cette condition n’ayant pas été acceptée, le contrat de 200 millions de dollars a été abandonné
- Le DoD a ensuite signé un nouveau contrat avec OpenAI
- Sous l’administration Trump, le département de la Défense, désigné comme le « Department of War », a signé avec OpenAI à la place d’Anthropic
- Sam Altman a annoncé que le nouveau contrat de défense contenait les mêmes protections sur les lignes rouges que celles demandées par Anthropic
- Dans un billet de blog, OpenAI a précisé que ses systèmes d’IA pouvaient être utilisés pour « all lawful purposes » (« toutes les finalités légales »)
- Selon le blog d’OpenAI, « le département de la Défense considère que la surveillance de masse intérieure est illégale et il a été clair dans nos échanges qu’il n’avait pas l’intention d’utiliser ces systèmes à cette fin »
- OpenAI a expliqué que le fait que cela ne relève pas des usages autorisés au titre de la légalité a été explicitement inscrit dans le contrat
Les objections précises d’Anthropic
- Anthropic a contesté précisément le fait que le département de la Défense demande à pouvoir utiliser son IA pour « any lawful use » (« tout usage légal »)
- Des critiques soulignent que les lois peuvent changer, et que ce qui est illégal aujourd’hui pourrait être autorisé demain
Réaction du public et impact sur le marché
- Après l’annonce du contrat entre OpenAI et le département de la Défense, les suppressions de ChatGPT ont bondi de 295 %
- Cela montre que le public perçoit le contrat militaire d’OpenAI comme suspect ou opaque
- Dans sa note, Amodei écrit que « cette tentative de spin/gaslighting ne prend pas vraiment auprès du public ni des médias ; la plupart voient le contrat d’OpenAI comme suspect et nous voient comme les héros »
Climat interne chez Anthropic
- Amodei a insisté auprès des employés sur le fait qu’il fallait empêcher le « message déformé » d’OpenAI d’influencer les équipes en interne
- Selon lui, la stratégie de communication d’OpenAI ne fonctionne qu’auprès de certains internautes et a échoué à convaincre plus largement
3 commentaires
Mais alors pourquoi avoir bloqué opencode... snif...
Réactions sur Hacker News
Quand @sama a annoncé quelques heures plus tard qu’OpenAI signait le même contrat aux mêmes conditions à la place d’Anthropic, il m’a semblé évident que le DoW ou OAI déformait la réalité
Si le DoW a rejeté les conditions d’Anthropic, alors celles d’OAI devaient en pratique être impossibles à faire respecter
En les lisant, on avait l’impression que c’étaient des conditions du type « le DoW ne violera pas les règles qu’il s’est lui-même fixées »
Sam Altman a dit qu’ils intégreraient des garde-fous dans les modèles destinés au DoD pour empêcher les abus, mais cela revient à prétendre résoudre le problème de l’alignement (alignment) à court terme. Difficile à croire
J’aimais ses essais autrefois, mais ils m’ont de plus en plus donné l’impression d’un manque de recul sur lui-même et d’une vision où les startups sont toute la vie
Cette fois encore, le voir prendre la défense d’Altman est extrêmement décevant. À voir son tweet, il détourne le regard de la réalité
Il semble sans doute incapable de le critiquer à cause du sentiment de responsabilité d’avoir contribué à faire connaître Altman au monde
La plupart des techniciens n’ont jamais étudié la philosophie politique, et l’histoire antique de l’anneau de Gygès reste toujours d’actualité
On ne peut pas voir cela uniquement comme une question d’éthique. Des capitaux énormes sont en jeu
L’entraînement des modèles de pointe coûte des sommes astronomiques, et seules des institutions comme le DoD peuvent en assumer la charge
Le fait qu’Anthropic ait refusé un contrat avec le département de la Défense pour des raisons de sécurité est un pari majeur. En contrepartie, l’entreprise espère que son approche de l’IA constitutionnelle (Constitutional AI) sera récompensée par le marché
OpenAI veut les financements du département de la Défense tout en conservant une image favorable aux consommateurs. Mais on ne peut pas courir deux lièvres à la fois
Avec cette affaire, Anthropic a peut-être même fini par générer davantage de revenus
Le vrai risque serait que le gouvernement qualifie Anthropic de risque pour la chaîne d’approvisionnement
Le fait qu’Anthropic s’oppose à la surveillance du DoD tout en collaborant avec Palantir peut sembler contradictoire
Vu que le DoD a rompu le contrat avant d’en signer un nouveau avec OpenAI, il est clair qu’il existait une différence concrète entre les conditions des deux entreprises
Dans le cadre de contrats publics, elle intègre diverses données, y compris d’enquête et de sécurité, mais ne les collecte pas elle-même
Voir l’article de Wired
Voir l’article de TechCrunch
La note complète de Dario a été publiée ici
Cela ressemble moins à une simple concurrence qu’à un conflit idéologique
Et qualifier des employés d’OpenAI de « idiots crédules de Twitter » n’est pas un choix très habile du point de vue du recrutement
Voir ce tweet d’exemple
@pg a décrit @sama comme « quelqu’un qu’on pourrait larguer sur une île de cannibales et qui en serait le roi cinq ans plus tard », et aujourd’hui cela sonne comme une citation emblématique de la soif de pouvoir
Dario semble être une personne sincère, rare à notre époque. J’espère qu’il ne vacillera pas
Au final, ce sont toutes des entreprises à but lucratif, et le fait qu’un camp ait tort ne rend pas automatiquement l’autre juste
Voir l’annonce officielle
Je reconnais qu’Altman a défendu Anthropic sur la clause SCR, mais cela reste le strict minimum
Cette citation m’a semblé négative dès le départ. Cette communauté aussi devrait avoir une méfiance naturelle envers les hiérarchies
En réalité, les deux laboratoires font de la « safety theater »
Sans avoir résolu le problème de l’alignement, ils se livrent à une dangereuse course aux capacités sous la pression du marché
Cette affaire est l’occasion d’un appel à l’action : résilier son abonnement OpenAI et supprimer son compte
Ne rien faire revient à cautionner
Sam Altman ment ? Ce n’est même plus surprenant
Il rend les gens toujours plus dépendants de lui, jusqu’à ce que plus personne ne puisse l’écarter plus tard
OpenAI est dans une situation où l’entreprise cherche à survivre en dépendant des subventions publiques
Sam et la direction ont déjà senti le danger et ont besoin de financements publics
Il y a aussi un calcul politique pour maintenir le marché à l’approche des élections
Nvidia, Micron, Oracle et Microsoft sont tous pris dans cette dynamique
J’ai créé un site de chronologie qui récapitule les événements récents entre Anthropic, OpenAI et le gouvernement américain
Lien du post HN
DoD : Department of Defense
..W : ..War