- Dario Amodei, PDG d’Anthropic, a vivement critiqué dans une note interne le contrat d’OpenAI avec le département de la Défense américain, le qualifiant de « démonstration de façade en matière de sécurité » (
safety theater)
- Anthropic disposait déjà d’un contrat militaire de 200 millions de dollars, mais les négociations ont échoué lorsque le département de la Défense a exigé un accès illimité à la technologie
- OpenAI a ensuite signé un contrat avec le département de la Défense, et Sam Altman a affirmé qu’il incluait les mêmes garde-fous sur les lignes rouges que ceux réclamés par Anthropic
- Amodei a déclaré à ses employés qu’Altman se présentait comme un « médiateur de paix et faiseur d’accords », et que le message d’OpenAI relevait de « mensonges flagrants »
- Après cet accord, le nombre de suppressions de ChatGPT a bondi de 295 %, tandis que l’opinion publique s’est montrée plus favorable à Anthropic
Contenu de la note interne de Dario Amodei
- Dans la note interne relayée par The Information, Amodei décrit l’accord entre OpenAI et le département de la Défense comme du « safety theater »
- Il y écrit que « si OpenAI a accepté cet accord et que nous l’avons refusé, la raison principale est qu’ils se souciaient de rassurer leurs employés, alors que nous nous souciions réellement de prévenir les abus »
- Il affirme qu’Altman se met en scène comme un « médiateur de paix et faiseur d’accords » et qualifie directement le message d’OpenAI de «
straight up lies » (« mensonges flagrants »)
Pourquoi les négociations entre Anthropic et le département de la Défense ont échoué
- Lors des négociations avec le département de la Défense américain, Anthropic a refusé l’exigence d’un accès illimité à sa technologie d’IA
- L’entreprise voulait la garantie que le DoD n’utiliserait pas son IA pour de la surveillance de masse sur le territoire national ni pour le développement d’armes autonomes
- Cette condition n’ayant pas été acceptée, le contrat de 200 millions de dollars a été abandonné
- Le DoD a ensuite signé un nouveau contrat avec OpenAI
- Sous l’administration Trump, le département de la Défense, désigné comme le « Department of War », a signé avec OpenAI à la place d’Anthropic
- Sam Altman a annoncé que le nouveau contrat de défense contenait les mêmes protections sur les lignes rouges que celles demandées par Anthropic
- Dans un billet de blog, OpenAI a précisé que ses systèmes d’IA pouvaient être utilisés pour « all lawful purposes » (« toutes les finalités légales »)
- Selon le blog d’OpenAI, « le département de la Défense considère que la surveillance de masse intérieure est illégale et il a été clair dans nos échanges qu’il n’avait pas l’intention d’utiliser ces systèmes à cette fin »
- OpenAI a expliqué que le fait que cela ne relève pas des usages autorisés au titre de la légalité a été explicitement inscrit dans le contrat
Les objections précises d’Anthropic
- Anthropic a contesté précisément le fait que le département de la Défense demande à pouvoir utiliser son IA pour « any lawful use » (« tout usage légal »)
- Des critiques soulignent que les lois peuvent changer, et que ce qui est illégal aujourd’hui pourrait être autorisé demain
Réaction du public et impact sur le marché
- Après l’annonce du contrat entre OpenAI et le département de la Défense, les suppressions de ChatGPT ont bondi de 295 %
- Cela montre que le public perçoit le contrat militaire d’OpenAI comme suspect ou opaque
- Dans sa note, Amodei écrit que « cette tentative de spin/gaslighting ne prend pas vraiment auprès du public ni des médias ; la plupart voient le contrat d’OpenAI comme suspect et nous voient comme les héros »
Climat interne chez Anthropic
- Amodei a insisté auprès des employés sur le fait qu’il fallait empêcher le « message déformé » d’OpenAI d’influencer les équipes en interne
- Selon lui, la stratégie de communication d’OpenAI ne fonctionne qu’auprès de certains internautes et a échoué à convaincre plus largement
Aucun commentaire pour le moment.