14 points par GN⁺ 2026-02-26 | 2 commentaires | Partager sur WhatsApp
  • L’entreprise de recherche en intelligence artificielle Anthropic retire un engagement majeur de sa politique centrale de sécurité, la Responsible Scaling Policy (RSP)
  • Auparavant, elle promettait de suspendre l’entraînement des modèles d’IA si les mesures de sécurité n’étaient pas suffisamment garanties, mais cette clause a été supprimée dans la nouvelle politique
  • La nouvelle RSP promet davantage de transparence et des efforts de sécurité au moins équivalents à ceux des concurrents, tout en précisant que le développement pourra être « retardé » si le risque devient grave
  • L’entreprise explique que ce changement n’est pas dû à la pression du marché, mais constitue une réponse aux réalités politiques et scientifiques
  • Des experts estiment que cette décision montre un manque de préparation de la société face aux risques de catastrophe liés à l’IA

Contexte de la modification de la RSP (Responsible Scaling Policy)

  • En 2023, Anthropic avait annoncé l’engagement de ne pas entraîner de systèmes d’IA tant que des mesures de sécurité suffisantes n’étaient pas démontrées
    • C’était une politique clé qui renforçait son image d’entreprise plaçant la sécurité avant la concurrence du marché
  • Récemment, l’entreprise a entièrement remanié sa RSP et a retiré sa promesse de ne pas lancer de modèles sans garanties de sécurité préalables
  • Jared Kaplan (Chief Science Officer) a indiqué que « compte tenu de la vitesse des progrès de l’IA, un engagement unilatéral n’est pas réaliste »

Principaux éléments de la nouvelle politique

  • La nouvelle RSP inclut une transparence accrue sur les risques de sécurité liés à l’IA
    • Anthropic publiera davantage de résultats de tests de sécurité de ses modèles et précise qu’elle maintiendra ou dépassera des mesures de sécurité au moins au niveau de celles de ses concurrents
  • Si l’entreprise est en tête dans la course à l’IA et juge que le risque catastrophique est élevé, elle pourra « retarder » le développement
  • En revanche, la ligne de limitation explicite qui interdisait auparavant l’entraînement de modèles au-delà d’un certain niveau a disparu

Contexte industriel du changement de politique

  • Anthropic enregistre récemment des performances commerciales grâce au succès des modèles Claude et de Claude Code
    • En février 2026, l’entreprise a levé 30 milliards de dollars, atteint une valorisation d’environ 380 milliards de dollars et signalé une croissance annuelle de son chiffre d’affaires de 10x
  • Son modèle économique centré sur le B2B est jugé plus crédible que la stratégie orientée grand public d’OpenAI
  • Kaplan a insisté sur le fait que cette évolution n’était pas liée à la pression du marché, mais à un ajustement pragmatique face à l’évolution du contexte politique et scientifique

Limites réglementaires et scientifiques

  • Lors de l’introduction de la RSP, Anthropic espérait que d’autres entreprises adopteraient des mesures similaires, mais cela ne s’est pas produit
  • On observe l’absence de loi fédérale américaine sur la régulation de l’IA, l’orientation de dérégulation de l’administration Trump et l’échec de la coopération internationale
  • La complexité de la science de l’évaluation de l’IA est également pointée du doigt
    • En 2025, Anthropic a déclaré ne pas pouvoir exclure la possibilité que ses modèles soient détournés à des fins de bioterrorisme, sans toutefois disposer de fondements scientifiques suffisants pour le démontrer

Discussions internes et processus de décision

  • Pendant environ un an, la direction a discuté d’une refonte de la RSP adaptée au nouvel environnement
    • Le point central était le principe fondateur selon lequel la recherche sur la sécurité de l’IA exige de développer directement des modèles de pointe
  • Selon Kaplan, le CEO Dario Amodei a estimé que « si les concurrents continuent de développer leurs modèles, le fait qu’Anthropic s’arrête seule serait au contraire plus dangereux »
  • Le préambule de la nouvelle RSP précise que « si le développeur disposant des protections les plus faibles dicte le rythme, les développeurs responsables perdront leur capacité à mener des recherches sur la sécurité »

Évaluations externes et inquiétudes

  • Chris Painter (directeur des politiques chez METR) estime que ce changement est compréhensible, mais qu’il révèle aussi un manque de préparation de la société face aux risques de catastrophe liés à l’IA
    • Il a déclaré qu’Anthropic était passée en mode d’urgence (triage), car les méthodes d’évaluation et d’atténuation des risques ne suivent pas le rythme des progrès technologiques
  • Painter a salué la publication transparente des risques et la divulgation d’une feuille de route de sécurité dans la nouvelle politique, mais
    • il craint que la disparition du seuil d’arrêt binaire (binary threshold) de l’ancienne RSP n’entraîne un effet de grenouille ébouillantée, avec une augmentation progressive du risque

Projets à venir et engagements de publication

  • Anthropic affirme que la nouvelle RSP conserve les principaux avantages de la politique précédente
    • Par le passé, les restrictions de lancement de modèles servaient de levier pour encourager le développement de mesures d’atténuation de la sécurité
    • Afin de préserver ce levier dans la nouvelle politique, l’entreprise prévoit de publier régulièrement les « Frontier Safety Roadmaps »
  • Elle publiera également des « Risk Reports » tous les 3 à 6 mois afin de
    • couvrir l’évaluation des capacités des modèles, des scénarios de menace, des mesures d’atténuation des risques et du niveau de risque global
  • Kaplan a souligné que « si les concurrents répondent de manière transparente aux risques catastrophiques, Anthropic maintiendra elle aussi des normes de sécurité équivalentes ou supérieures »

2 commentaires

 
tsboard 2026-02-26

Même si Anthropic s’obstine, au final, si le département de la Défense américain lui dit de s’exécuter, il devra obéir. Au fond, n’était-ce pas la suite logique des choses ?

 
GN⁺ 2026-02-26
Commentaires sur Hacker News
  • Voir Anthropic expliquer qu’il renonce à sa promesse d’interrompre l’entraînement des modèles d’IA parce que « les concurrents prennent de l’avance » donne l’impression qu’au fond, tout se résume à l’argent
    Cela ressemble à une logique du type : « si tout le monde donne des coups de pied aux chiots, alors nous aussi ».
    Les gens voulaient croire qu’Anthropic était une « bonne entreprise », mais au final, elle ne poursuit elle aussi que le profit

    • Anthropic ne peut pas représenter à lui seul la raison du marché. Ce rôle doit revenir à des mécanismes de régulation et de supervision publics
      Mais dans la réalité, la plupart des entreprises d’IA évoluent sous un « gouvernement de papier »
    • En réalité, l’idée que « seule la victoire compte » est une constante dans presque tous les secteurs
      Ce n’est pas propre aux entreprises d’IA, mais cela ne le rend pas pour autant acceptable
    • Si au final l’argent est tout ce qui compte, alors j’ai décidé de voter avec mon portefeuille et d’annuler mon abonnement Max
    • Si la concurrence est laissée sans régulation, toutes les entreprises qui réussissent finissent par produire fraude et dommages
      C’est pourquoi des règles sur la sécurité, l’environnement et la lutte contre la corruption sont indispensables
  • Cela ressemble au cycle classique des startups IA
    « Construisons un fossé défensif pour sauver l’humanité » → « Régulons les concurrents open source » → « La sécurité nuit aux résultats du T3 »

    • Au final, cela aboutit à une déclaration implicite selon laquelle le budget du Pentagone compte davantage que la sécurité
    • Une fois devenus dominants sur le marché, ils chercheront à pousser à la régulation publique via des organisations à but non lucratif qu’ils financent
    • Le plus frappant, c’est que ce changement s’est produit beaucoup trop vite
    • Ce n’est pas propre à l’IA : d’autres entreprises qui mettent en avant le mot « open » font la même chose
      En pratique elles sont fermées, tout en gaslightant les gens pour leur faire croire qu’elles sont ouvertes
    • Les responsables politiques aiment aussi la régulation, surtout quand elle s’accompagne de vin et de steak, disait ce commentaire sur un ton ironique
  • J’ai travaillé chez Anthropic autrefois, et des gens comme Jared Kaplan réfléchissaient sincèrement à l’équilibre entre la recherche sur la sécurité et les technologies de pointe
    Mais cette décision est décevante. Je croyais que la « Responsible Scaling Policy » était un engagement concret qui serait maintenu même dans ce genre de situation
    C’est cet engagement qui faisait apparaître Anthropic comme « le labo le moins risqué », et ce signal s’est maintenant affaibli
    J’ai peur qu’à l’avenir, préserver sa place passe avant les principes

    • Dire qu’on espère les voir agir selon leurs valeurs est peut-être une attente trop naïve
      Malgré tout, si des valeurs subsistent encore, il vaut mieux qu’elles exercent une influence, même limitée, au milieu de laboratoires qui en sont totalement dépourvus
    • Si nous ne sommes pas prêts à renoncer aux RSU, nous ne pouvons pas l’exiger non plus de la direction
      La responsabilité morale doit être partagée par nous tous
    • La promesse n’avait pas de force juridique contraignante, mais elle avait du sens comme signal envoyé au marché
      Le fait de la retirer eux-mêmes signifie qu’ils se tournent désormais vers un autre marché
    • J’ai passé un entretien chez Anthropic l’an dernier, et cela m’a donné l’impression d’une mise en scène éthique
      On demandait aux candidats d’écrire un essai sur la sécurité de l’IA, et tout le monde jouait la comédie du « on va sauver le monde »
      Au final, dès que l’argent est devenu l’enjeu, plus personne n’a rien dit
    • Ce type de principes ne peut en fin de compte être maintenu qu’au niveau des pouvoirs publics
      Une entreprise ne peut structurellement pas échapper à son instinct de maximisation du profit
  • Cette décision rappelle le moment où Mozilla a accepté le DRM
    Ce n’est pas parfait, mais Anthropic essaie malgré tout au moins de faire preuve d’un certain sens des responsabilités
    Comparé à OpenAI, il reste encore au moins un peu de place pour la confiance

  • Le titre de l’article est exagéré. La controverse ne porte pas sur des négociations avec le Pentagone, mais sur la Responsible Scaling Policy 3.0 publiée par Anthropic

    • Bien sûr, on ne peut pas affirmer que les deux sujets n’ont absolument aucun lien
      Il se peut même qu’il s’agisse d’une mesure préventive
    • En réalité, ce changement de politique me semble être une évolution plus importante encore que la question du Pentagone
  • Il y a eu des pressions du gouvernement, mais l’article n’en parle pas du tout

    • Selon des articles connexes, une rencontre entre Hegseth et le CEO d’Anthropic, Dario Amodei a bien eu lieu
    • Certains pensent que c’est ce qui a permis d’obtenir cette exclusivité
    • D’autres y voient une forme de fabrication du consentement
    • Ils critiquent aussi le fait que le nom de Hegseth n’apparaisse même pas dans l’article
  • Le texte qui commence par « Au début, quand ils ont sorti le modèle sans validation de sécurité, personne n’a rien dit… » sonne comme une fable d’avertissement
    Au final, personne ne s’est préparé, et quand le problème a éclaté, il était trop tard

    • Cette indifférence collective est un problème chronique des sociétés humaines
    • Les avertissements étaient suffisants, mais les gens étaient prisonniers de la cupidité et du court-termisme
    • Pour le reformuler à la manière de HN, nous étions tous finalement complices de ce système
    • Certains ont aussi dit que cela ressemblait un peu à l’introduction d’un récit à la Terminator
    • Mais de façon réaliste, le scénario d’une IA devenant hors de contrôle est encore loin
      Le vrai problème relève davantage de la politique et de la culture que de la technologie
  • Le fait d’avoir retiré cet engagement de sécurité à ce moment précis est très révélateur
    Ces entreprises suivent un code éthique jusqu’au moment où leurs profits sont menacés, puis l’abandonnent aussitôt
    Au fond, l’objectif est de dévaloriser le travail des cols blancs
    Reste à voir si elles conduiront cette transition de manière éthique ou si elles transféreront simplement la richesse vers les actionnaires

    • Ce timing peut aussi être un signal annonciateur de pressions gouvernementales
    • Mais si la classe moyenne s’effondre, alors la base de consommateurs disparaît elle aussi
      C’est le serpent qui se mord la queue
    • Des slogans comme « Don’t be evil » ne sont au final qu’un habillage au service du profit
      La nature d’une entreprise est de rechercher le profit, et ce n’est pas mauvais en soi, mais ces gestes moraux paraissent hypocrites
  • Le « Don’t be evil » de Google a tenu 15 ans, mais la Responsible Scaling Policy d’Anthropic a disparu en deux ans et demi
    La demi-vie de l’idéalisme IA raccourcit de plus en plus

  • Le changement chez Anthropic est regrettable, mais d’un point de vue réaliste, il ne faut pas prendre trop de retard dans la compétition, même au nom de la sécurité
    C’est le moment du pragmatisme. Anthropic deviendra peut-être « mauvais » plus tard, mais pour l’instant, c’est encore l’option la plus sûre

    • Certains ont demandé pourquoi accorder autant de confiance à Anthropic
      Le fait que le CEO ait refusé l’usage militaire de l’IA est vu positivement
    • Mais ce genre de changement peut aussi être un signe qu’ils sont déjà en train de basculer
      Il faut rester vigilant avant qu’il ne soit trop tard
    • Une autre réaction, cynique, disait que ce sont justement les pragmatiques qui détruisent le monde