14 points par GN⁺ 2026-02-26 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • L’entreprise de recherche en intelligence artificielle Anthropic retire un engagement majeur de sa politique centrale de sécurité, la Responsible Scaling Policy (RSP)
  • Auparavant, elle promettait de suspendre l’entraînement des modèles d’IA si les mesures de sécurité n’étaient pas suffisamment garanties, mais cette clause a été supprimée dans la nouvelle politique
  • La nouvelle RSP promet davantage de transparence et des efforts de sécurité au moins équivalents à ceux des concurrents, tout en précisant que le développement pourra être « retardé » si le risque devient grave
  • L’entreprise explique que ce changement n’est pas dû à la pression du marché, mais constitue une réponse aux réalités politiques et scientifiques
  • Des experts estiment que cette décision montre un manque de préparation de la société face aux risques de catastrophe liés à l’IA

Contexte de la modification de la RSP (Responsible Scaling Policy)

  • En 2023, Anthropic avait annoncé l’engagement de ne pas entraîner de systèmes d’IA tant que des mesures de sécurité suffisantes n’étaient pas démontrées
    • C’était une politique clé qui renforçait son image d’entreprise plaçant la sécurité avant la concurrence du marché
  • Récemment, l’entreprise a entièrement remanié sa RSP et a retiré sa promesse de ne pas lancer de modèles sans garanties de sécurité préalables
  • Jared Kaplan (Chief Science Officer) a indiqué que « compte tenu de la vitesse des progrès de l’IA, un engagement unilatéral n’est pas réaliste »

Principaux éléments de la nouvelle politique

  • La nouvelle RSP inclut une transparence accrue sur les risques de sécurité liés à l’IA
    • Anthropic publiera davantage de résultats de tests de sécurité de ses modèles et précise qu’elle maintiendra ou dépassera des mesures de sécurité au moins au niveau de celles de ses concurrents
  • Si l’entreprise est en tête dans la course à l’IA et juge que le risque catastrophique est élevé, elle pourra « retarder » le développement
  • En revanche, la ligne de limitation explicite qui interdisait auparavant l’entraînement de modèles au-delà d’un certain niveau a disparu

Contexte industriel du changement de politique

  • Anthropic enregistre récemment des performances commerciales grâce au succès des modèles Claude et de Claude Code
    • En février 2026, l’entreprise a levé 30 milliards de dollars, atteint une valorisation d’environ 380 milliards de dollars et signalé une croissance annuelle de son chiffre d’affaires de 10x
  • Son modèle économique centré sur le B2B est jugé plus crédible que la stratégie orientée grand public d’OpenAI
  • Kaplan a insisté sur le fait que cette évolution n’était pas liée à la pression du marché, mais à un ajustement pragmatique face à l’évolution du contexte politique et scientifique

Limites réglementaires et scientifiques

  • Lors de l’introduction de la RSP, Anthropic espérait que d’autres entreprises adopteraient des mesures similaires, mais cela ne s’est pas produit
  • On observe l’absence de loi fédérale américaine sur la régulation de l’IA, l’orientation de dérégulation de l’administration Trump et l’échec de la coopération internationale
  • La complexité de la science de l’évaluation de l’IA est également pointée du doigt
    • En 2025, Anthropic a déclaré ne pas pouvoir exclure la possibilité que ses modèles soient détournés à des fins de bioterrorisme, sans toutefois disposer de fondements scientifiques suffisants pour le démontrer

Discussions internes et processus de décision

  • Pendant environ un an, la direction a discuté d’une refonte de la RSP adaptée au nouvel environnement
    • Le point central était le principe fondateur selon lequel la recherche sur la sécurité de l’IA exige de développer directement des modèles de pointe
  • Selon Kaplan, le CEO Dario Amodei a estimé que « si les concurrents continuent de développer leurs modèles, le fait qu’Anthropic s’arrête seule serait au contraire plus dangereux »
  • Le préambule de la nouvelle RSP précise que « si le développeur disposant des protections les plus faibles dicte le rythme, les développeurs responsables perdront leur capacité à mener des recherches sur la sécurité »

Évaluations externes et inquiétudes

  • Chris Painter (directeur des politiques chez METR) estime que ce changement est compréhensible, mais qu’il révèle aussi un manque de préparation de la société face aux risques de catastrophe liés à l’IA
    • Il a déclaré qu’Anthropic était passée en mode d’urgence (triage), car les méthodes d’évaluation et d’atténuation des risques ne suivent pas le rythme des progrès technologiques
  • Painter a salué la publication transparente des risques et la divulgation d’une feuille de route de sécurité dans la nouvelle politique, mais
    • il craint que la disparition du seuil d’arrêt binaire (binary threshold) de l’ancienne RSP n’entraîne un effet de grenouille ébouillantée, avec une augmentation progressive du risque

Projets à venir et engagements de publication

  • Anthropic affirme que la nouvelle RSP conserve les principaux avantages de la politique précédente
    • Par le passé, les restrictions de lancement de modèles servaient de levier pour encourager le développement de mesures d’atténuation de la sécurité
    • Afin de préserver ce levier dans la nouvelle politique, l’entreprise prévoit de publier régulièrement les « Frontier Safety Roadmaps »
  • Elle publiera également des « Risk Reports » tous les 3 à 6 mois afin de
    • couvrir l’évaluation des capacités des modèles, des scénarios de menace, des mesures d’atténuation des risques et du niveau de risque global
  • Kaplan a souligné que « si les concurrents répondent de manière transparente aux risques catastrophiques, Anthropic maintiendra elle aussi des normes de sécurité équivalentes ou supérieures »

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.