- L’entreprise de recherche en intelligence artificielle Anthropic retire un engagement majeur de sa politique centrale de sécurité, la Responsible Scaling Policy (RSP)
- Auparavant, elle promettait de suspendre l’entraînement des modèles d’IA si les mesures de sécurité n’étaient pas suffisamment garanties, mais cette clause a été supprimée dans la nouvelle politique
- La nouvelle RSP promet davantage de transparence et des efforts de sécurité au moins équivalents à ceux des concurrents, tout en précisant que le développement pourra être « retardé » si le risque devient grave
- L’entreprise explique que ce changement n’est pas dû à la pression du marché, mais constitue une réponse aux réalités politiques et scientifiques
- Des experts estiment que cette décision montre un manque de préparation de la société face aux risques de catastrophe liés à l’IA
Contexte de la modification de la RSP (Responsible Scaling Policy)
- En 2023, Anthropic avait annoncé l’engagement de ne pas entraîner de systèmes d’IA tant que des mesures de sécurité suffisantes n’étaient pas démontrées
- C’était une politique clé qui renforçait son image d’entreprise plaçant la sécurité avant la concurrence du marché
- Récemment, l’entreprise a entièrement remanié sa RSP et a retiré sa promesse de ne pas lancer de modèles sans garanties de sécurité préalables
- Jared Kaplan (Chief Science Officer) a indiqué que « compte tenu de la vitesse des progrès de l’IA, un engagement unilatéral n’est pas réaliste »
Principaux éléments de la nouvelle politique
- La nouvelle RSP inclut une transparence accrue sur les risques de sécurité liés à l’IA
- Anthropic publiera davantage de résultats de tests de sécurité de ses modèles et précise qu’elle maintiendra ou dépassera des mesures de sécurité au moins au niveau de celles de ses concurrents
- Si l’entreprise est en tête dans la course à l’IA et juge que le risque catastrophique est élevé, elle pourra « retarder » le développement
- En revanche, la ligne de limitation explicite qui interdisait auparavant l’entraînement de modèles au-delà d’un certain niveau a disparu
Contexte industriel du changement de politique
- Anthropic enregistre récemment des performances commerciales grâce au succès des modèles Claude et de Claude Code
- En février 2026, l’entreprise a levé 30 milliards de dollars, atteint une valorisation d’environ 380 milliards de dollars et signalé une croissance annuelle de son chiffre d’affaires de 10x
- Son modèle économique centré sur le B2B est jugé plus crédible que la stratégie orientée grand public d’OpenAI
- Kaplan a insisté sur le fait que cette évolution n’était pas liée à la pression du marché, mais à un ajustement pragmatique face à l’évolution du contexte politique et scientifique
Limites réglementaires et scientifiques
- Lors de l’introduction de la RSP, Anthropic espérait que d’autres entreprises adopteraient des mesures similaires, mais cela ne s’est pas produit
- On observe l’absence de loi fédérale américaine sur la régulation de l’IA, l’orientation de dérégulation de l’administration Trump et l’échec de la coopération internationale
- La complexité de la science de l’évaluation de l’IA est également pointée du doigt
- En 2025, Anthropic a déclaré ne pas pouvoir exclure la possibilité que ses modèles soient détournés à des fins de bioterrorisme, sans toutefois disposer de fondements scientifiques suffisants pour le démontrer
Discussions internes et processus de décision
- Pendant environ un an, la direction a discuté d’une refonte de la RSP adaptée au nouvel environnement
- Le point central était le principe fondateur selon lequel la recherche sur la sécurité de l’IA exige de développer directement des modèles de pointe
- Selon Kaplan, le CEO Dario Amodei a estimé que « si les concurrents continuent de développer leurs modèles, le fait qu’Anthropic s’arrête seule serait au contraire plus dangereux »
- Le préambule de la nouvelle RSP précise que « si le développeur disposant des protections les plus faibles dicte le rythme, les développeurs responsables perdront leur capacité à mener des recherches sur la sécurité »
Évaluations externes et inquiétudes
- Chris Painter (directeur des politiques chez METR) estime que ce changement est compréhensible, mais qu’il révèle aussi un manque de préparation de la société face aux risques de catastrophe liés à l’IA
- Il a déclaré qu’Anthropic était passée en mode d’urgence (triage), car les méthodes d’évaluation et d’atténuation des risques ne suivent pas le rythme des progrès technologiques
- Painter a salué la publication transparente des risques et la divulgation d’une feuille de route de sécurité dans la nouvelle politique, mais
- il craint que la disparition du seuil d’arrêt binaire (binary threshold) de l’ancienne RSP n’entraîne un effet de grenouille ébouillantée, avec une augmentation progressive du risque
Projets à venir et engagements de publication
- Anthropic affirme que la nouvelle RSP conserve les principaux avantages de la politique précédente
- Par le passé, les restrictions de lancement de modèles servaient de levier pour encourager le développement de mesures d’atténuation de la sécurité
- Afin de préserver ce levier dans la nouvelle politique, l’entreprise prévoit de publier régulièrement les « Frontier Safety Roadmaps »
- Elle publiera également des « Risk Reports » tous les 3 à 6 mois afin de
- couvrir l’évaluation des capacités des modèles, des scénarios de menace, des mesures d’atténuation des risques et du niveau de risque global
- Kaplan a souligné que « si les concurrents répondent de manière transparente aux risques catastrophiques, Anthropic maintiendra elle aussi des normes de sécurité équivalentes ou supérieures »
2 commentaires
Même si Anthropic s’obstine, au final, si le département de la Défense américain lui dit de s’exécuter, il devra obéir. Au fond, n’était-ce pas la suite logique des choses ?
Commentaires sur Hacker News
Voir Anthropic expliquer qu’il renonce à sa promesse d’interrompre l’entraînement des modèles d’IA parce que « les concurrents prennent de l’avance » donne l’impression qu’au fond, tout se résume à l’argent
Cela ressemble à une logique du type : « si tout le monde donne des coups de pied aux chiots, alors nous aussi ».
Les gens voulaient croire qu’Anthropic était une « bonne entreprise », mais au final, elle ne poursuit elle aussi que le profit
Mais dans la réalité, la plupart des entreprises d’IA évoluent sous un « gouvernement de papier »
Ce n’est pas propre aux entreprises d’IA, mais cela ne le rend pas pour autant acceptable
C’est pourquoi des règles sur la sécurité, l’environnement et la lutte contre la corruption sont indispensables
Cela ressemble au cycle classique des startups IA
« Construisons un fossé défensif pour sauver l’humanité » → « Régulons les concurrents open source » → « La sécurité nuit aux résultats du T3 »
En pratique elles sont fermées, tout en gaslightant les gens pour leur faire croire qu’elles sont ouvertes
J’ai travaillé chez Anthropic autrefois, et des gens comme Jared Kaplan réfléchissaient sincèrement à l’équilibre entre la recherche sur la sécurité et les technologies de pointe
Mais cette décision est décevante. Je croyais que la « Responsible Scaling Policy » était un engagement concret qui serait maintenu même dans ce genre de situation
C’est cet engagement qui faisait apparaître Anthropic comme « le labo le moins risqué », et ce signal s’est maintenant affaibli
J’ai peur qu’à l’avenir, préserver sa place passe avant les principes
Malgré tout, si des valeurs subsistent encore, il vaut mieux qu’elles exercent une influence, même limitée, au milieu de laboratoires qui en sont totalement dépourvus
La responsabilité morale doit être partagée par nous tous
Le fait de la retirer eux-mêmes signifie qu’ils se tournent désormais vers un autre marché
On demandait aux candidats d’écrire un essai sur la sécurité de l’IA, et tout le monde jouait la comédie du « on va sauver le monde »
Au final, dès que l’argent est devenu l’enjeu, plus personne n’a rien dit
Une entreprise ne peut structurellement pas échapper à son instinct de maximisation du profit
Cette décision rappelle le moment où Mozilla a accepté le DRM
Ce n’est pas parfait, mais Anthropic essaie malgré tout au moins de faire preuve d’un certain sens des responsabilités
Comparé à OpenAI, il reste encore au moins un peu de place pour la confiance
Le titre de l’article est exagéré. La controverse ne porte pas sur des négociations avec le Pentagone, mais sur la Responsible Scaling Policy 3.0 publiée par Anthropic
Il se peut même qu’il s’agisse d’une mesure préventive
Il y a eu des pressions du gouvernement, mais l’article n’en parle pas du tout
Le texte qui commence par « Au début, quand ils ont sorti le modèle sans validation de sécurité, personne n’a rien dit… » sonne comme une fable d’avertissement
Au final, personne ne s’est préparé, et quand le problème a éclaté, il était trop tard
Le vrai problème relève davantage de la politique et de la culture que de la technologie
Le fait d’avoir retiré cet engagement de sécurité à ce moment précis est très révélateur
Ces entreprises suivent un code éthique jusqu’au moment où leurs profits sont menacés, puis l’abandonnent aussitôt
Au fond, l’objectif est de dévaloriser le travail des cols blancs
Reste à voir si elles conduiront cette transition de manière éthique ou si elles transféreront simplement la richesse vers les actionnaires
C’est le serpent qui se mord la queue
La nature d’une entreprise est de rechercher le profit, et ce n’est pas mauvais en soi, mais ces gestes moraux paraissent hypocrites
Le « Don’t be evil » de Google a tenu 15 ans, mais la Responsible Scaling Policy d’Anthropic a disparu en deux ans et demi
La demi-vie de l’idéalisme IA raccourcit de plus en plus
Le changement chez Anthropic est regrettable, mais d’un point de vue réaliste, il ne faut pas prendre trop de retard dans la compétition, même au nom de la sécurité
C’est le moment du pragmatisme. Anthropic deviendra peut-être « mauvais » plus tard, mais pour l’instant, c’est encore l’option la plus sûre
Le fait que le CEO ait refusé l’usage militaire de l’IA est vu positivement
Il faut rester vigilant avant qu’il ne soit trop tard