- Le CEO d’OpenAI, Sam Altman, a annoncé être parvenu à un accord pour déployer des modèles sur le réseau classifié du département américain de la Défense (DoD)
- L’accord inclut les principes d’interdiction de la surveillance de masse sur le territoire national et de responsabilité humaine dans l’usage de la force, y compris pour les systèmes d’armes autonomes, principes également approuvés par le département de la Défense
- Les conditions prévoient la mise en place de garde-fous techniques pour garantir que les modèles fonctionnent comme prévu, un déploiement uniquement sur des réseaux cloud, ainsi que l’affectation de Field Deployment Engineers (FDE)
- OpenAI demande que le département de la Défense propose ces mêmes conditions à toutes les entreprises d’IA, estimant qu’elles sont acceptables pour l’ensemble du secteur
- L’entreprise dit espérer fortement une désescalade par des accords raisonnables plutôt que par des mesures juridiques ou gouvernementales
Contenu de l’accord
- OpenAI a conclu un accord pour déployer des modèles sur le réseau classifié du département de la Défense
- Durant les négociations, OpenAI estime que le département de la Défense a montré un profond respect pour la sécurité et une volonté de travailler en partenariat pour obtenir le meilleur résultat possible
Principes de sécurité
- La sécurité de l’IA et la large distribution de ses bénéfices sont au cœur de la mission d’OpenAI
- Deux principes de sécurité clés inclus dans l’accord :
- Interdiction de la surveillance de masse sur le territoire national
- Responsabilité humaine dans l’usage de la force, y compris pour les systèmes d’armes autonomes
- Le département de la Défense approuve également ces principes, les intégrera dans la loi et les politiques, et les a explicitement inscrits dans l’accord
Garde-fous techniques et conditions de déploiement
- Des garde-fous techniques (technical safeguards) seront mis en place pour que les modèles fonctionnent comme prévu, ce que le département de la Défense souhaitait également
- Des Field Deployment Engineers (FDE) seront mobilisés pour accompagner les modèles et garantir leur sécurité
- Le déploiement se fera uniquement sur des réseaux cloud
Demande d’extension à l’ensemble du secteur
- OpenAI a demandé au département de la Défense de proposer ces mêmes conditions à toutes les entreprises d’IA
- OpenAI estime qu’il s’agit de conditions que toutes les entreprises peuvent accepter
- L’entreprise exprime son fort souhait de voir la situation s’apaiser par des accords raisonnables plutôt que par des mesures juridiques ou gouvernementales
3 commentaires
Au final, le département de la Défense américain a laissé de côté Anthropic pour choisir OpenAI, mais il y a une différence de formulation assez révélatrice.
OpenAI a proposé en même temps des mécanismes de mise en œuvre concrets comme la mise en place de garde-fous techniques, le déploiement de FDE (ingénieurs de terrain) et un déploiement dédié au cloud
Anthropic a demandé des clauses d’exception au niveau des conditions d’utilisation
Du point de vue du département de la Défense, cela a apparemment été perçu comme le fait qu’« une entreprise privée exerce un droit de veto sur des cas d’usage individuels », d’où une annonce qui ressemble presque à une sanction pour offense.
Cet accord a été annoncé peu après qu’Anthropic a été désignée comme risque pour la chaîne d’approvisionnement, et
si l’on en croit l’article d’Axios, le département de la Défense s’est servi de son affrontement avec Anthropic pour donner le ton dans ses négociations avec d’autres entreprises d’IA ;
OpenAI, sous cette pression, a donc réussi à conclure un accord sous une forme acceptable pour le Pentagone
La différence dans la formulation officielle est aussi frappante.
Sam Altman a déclaré que « le département de la Défense a montré un profond respect pour la sécurité », et
du côté d’Anthropic, le ton est resté jusqu’au bout celui de « nous ne pouvons pas en conscience accepter les exigences du département de la Défense »
Même avec des principes similaires, il semble que la différence ait surtout porté sur le fait de laisser ou non au département de la Défense une porte de sortie honorable ;
au final, comme l’acceptation d’OpenAI rendait la situation un peu bancale en apparence,
Sam Altman a ajouté à la fin : « veuillez proposer ces conditions à l’identique à toutes les entreprises d’IA »,
ce qui ressemble à un message indirect demandant d’assouplir les mesures prises contre Anthropic.
Même avec un contrat du même niveau, la confiance qu’il inspire et l’image qu’il renvoie me semblent vraiment très différentes.
Je vais peut-être résilier mon abonnement à GPT.
Avis sur Hacker News
Si OpenAI avait maintenu les conditions exigées par Anthropic, le gouvernement n’aurait probablement pas approuvé ce contrat
Au final, on ne peut que supposer qu’il existe un accord implicite selon lequel OpenAI n’appliquera pas réellement les lignes rouges
Ceux qui restent maintenant sont surtout là pour les actions
Il y serait écrit « interdiction de la surveillance de masse sur le territoire national » et « responsabilité humaine dans l’usage de la force », et le DoW (Department of War) aurait aussi accepté cela
Gaspiller inutilement du capital politique et conclure un accord encore pire, c’est leur manière de faire
OpenAI a peut-être proposé les mêmes conditions qu’Anthropic, mais le gouvernement a pu fermer les yeux grâce à l’argent du lobbying ou à l’effet RP
J’ai supprimé ChatGPT, annulé mon abonnement, et décidé d’investir davantage dans Anthropic
Je trouve qu’une attitude fondée sur des principes compte, et je ne fais plus confiance à OpenAI
Le peu de respect qu’il me restait pour Sam Altman a disparu, et la réalité d’une IA contaminée par la cupidité humaine me répugne
Les idéaux du départ, quand OpenAI était une organisation à but non lucratif, ont complètement disparu
Tout le monde devrait se désabonner et taxer lourdement ce genre d’entreprises et de CEO
Rien qu’en termes de qualité produit, OpenAI n’a plus le niveau d’avant
Je vais attendre de voir quels choix fera Google
Des formulations comme « responsabilité humaine dans l’usage de la force » sonnent chez lui comme des déclarations d’évitement
Cela signifie qu’au final, les armes autonomes létales restent possibles
Même si le président ou le département de la Défense est désigné comme « responsable », il est en pratique impossible de leur demander des comptes
Dans le premier message, il affirme que le contrat d’OpenAI inclut des garde-fous fondés sur les contraintes juridiques
Dans le second message, il soutient que le contrat a été conclu sur la base de « tout usage légal », ce qui serait une approche laissant l’autorité au système démocratique
Anthropic aurait refusé ce compromis
Il y a déjà eu dans le passé de nombreux cas où des actes illégaux ont été présentés comme légaux, et même des situations où la loi elle-même a été modifiée
En fin de compte, la loi seule ne peut pas empêcher les abus de pouvoir du gouvernement
Même si son explication est correcte, difficile d’y croire tant qu’un média fiable n’a pas publié l’intégralité du contrat
Si c’est vrai, alors un boycott d’OpenAI et de l’armée américaine semblerait être une réponse appropriée
Article lié
Le problème n’est peut-être pas les lignes rouges, mais le fait que le gouvernement ait vu Anthropic comme un adversaire politique
Mais en regardant cela de manière plus objective, le point clé est de savoir si c’est le gouvernement ou l’entreprise d’IA qui décide de ce qu’est un « usage légal »
D’après ce tweet, Anthropic voulait intégrer directement ce critère dans la constitution de Claude
Au final, j’ai annulé mon abonnement en attendant une position claire d’OpenAI
Puis il a soudainement exigé une renégociation en menaçant de désignation SCR et d’acquisition forcée via le DPA
Si le contrat d’OpenAI est similaire à celui d’Anthropic, alors c’est vraiment doublement injuste et hypocrite
Avec le temps, il autoriserait des modèles pour les armes autonomes, et les fonctions de surveillance pourraient être contournées via Palantir
Il est très possible que ce soit un mensonge stratégique visant à faire passer Anthropic pour le méchant
Sans sa base d’utilisateurs, OpenAI ne pourra pas maintenir sa valorisation actuelle, largement surestimée
D’autres modèles sont déjà largement assez compétitifs
Je suis lassé de ce genre de comportements corrompus