3 points par GN⁺ 2025-08-03 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Anthropic a bloqué l'accès API au modèle Claude en affirmant qu'OpenAI avait enfreint ses conditions d'utilisation.
  • OpenAI a intégré Claude dans ses outils internes via une API pour mener une évaluation comparative de ses modèles, de leurs fonctionnalités et de la sécurité, ce qui aurait violé la clause d'interdiction de concurrence des conditions d'utilisation.
  • Dans l'industrie de l'IA, la restriction d'accès aux concurrents est fréquente, et d'autres grands groupes comme Salesforce ont déjà pris des mesures similaires.
  • OpenAI dit respecter la décision d'Anthropic, mais regrette que son API reste ouverte à Anthropic.
  • Anthropic a indiqué qu'elle maintiendrait, selon les standards du secteur, un accès API limité à des fins de benchmarking et d'évaluation de la sécurité, mais la portée réelle de l'impact demeure floue.

Aperçu du blocage de l'accès à l'API Claude de OpenAI par Anthropic

  • Le 30 juillet (heure locale), Anthropic a bloqué l'accès à l'API du modèle Claude à OpenAI.
  • Selon plusieurs sources, la raison en est une violation des conditions d'utilisation, et un avis de blocage aurait été transmis à OpenAI.

Détails de la violation des conditions d'utilisation et des circonstances

  • Le porte-parole d'Anthropic, Christopher Nulty, a déclaré : « Claude Code est très apprécié par les développeurs, et des ingénieurs d'OpenAI l'ont également utilisé avant le lancement de GPT-5. »
  • OpenAI est en préparation de la sortie de GPT-5, et ce modèle est connu pour ses très bonnes performances en codage.
  • Le comportement enfreint directement la clause des conditions d'utilisation commerciales d'Anthropic, qui interdit « l'utilisation pour développer un produit ou un service concurrent, ou toute action de rétro-ingénierie/copie ».
  • OpenAI a intégré Claude à un outil d'évaluation interne en utilisant une API spécifiquement dédiée aux développeurs, et non l'interface de chat grand public.
    • Elle permet ainsi de comparer avec ses propres modèles d'IA les réponses de Claude sur le codage, la rédaction créative et des cas de sécurité liés au CSAM, à l'automutilation et à la diffamation.
    • Ces résultats ont permis à OpenAI de comparer et d'analyser le comportement opérationnel de ses modèles dans des conditions avec des tiers, puis de les utiliser pour améliorer ses algorithmes.

Pratiques sectorielles et position d'OpenAI

  • OpenAI a indiqué que « l'évaluation de systèmes d'IA concurrents à des fins de benchmarking et d'amélioration de la sécurité » est une pratique standard dans l'industrie.
  • Hannah Wong, responsable des communications d'OpenAI, a déclaré qu'elle respectait la décision d'Anthropic de mettre fin à l'API, mais a regretté que, en contrepartie, l'API d'OpenAI reste ouverte à Anthropic, ce qui pose problème sous l'angle de la réciprocité.

Restriction d'accès entre concurrents et tendances sectorielles

  • La restriction de l'accès API entre concurrents est une stratégie récurrente de l'industrie informatique depuis longtemps.
    • Cas d'école : Facebook a bloqué l'accès API du service Vine de l'écosystème Twitter, ce qui avait suscité des soupçons d'action anticoncurrentielle,
    • et, plus récemment, Salesforce a limité l'accès aux données Slack d'un concurrent.
  • Anthropic a également, par le passé, restreint temporairement l'accès à Windsurf, une startup de codage IA, et cela a aussi été lié à des rumeurs d'acquisition par OpenAI (qui a finalement été retirée).
  • Jared Kaplan, directeur scientifique d'Anthropic, a déjà fait remarquer qu'il était anormal de « vendre Claude à OpenAI ».

Contexte supplémentaire de la restriction API

  • La veille du blocage de l'API Claude d'OpenAI, Anthropic a également annoncé une nouvelle politique de limitation d'usage, invoquant la croissance explosive de l'utilisation de Claude Code et certains incidents de violation des conditions.

Conclusion et impact pour l'industrie

  • Anthropic s'est engagée à maintenir une possibilité d'utilisation limitée de l'API Claude par OpenAI pour le benchmarking et l'évaluation de la sécurité conformément aux standards du secteur.
  • Toutefois, la manière exacte dont cela se fera n'est pas clairement définie à ce stade.

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.