2 points par GN⁺ 2026-03-21 | 3 commentaires | Partager sur WhatsApp
  • Une manipulation de la base URL d’OpenAI a révélé qu’un chemin de requête contenait kimi-k2p5-rl, mettant en évidence que Composer 2 repose sur Kimi K2.5 + apprentissage par renforcement (RL)
  • Des requêtes auparavant bloquées dans les versions précédentes étaient exposées dans Composer 2, puis un correctif de blocage immédiat a été déployé
  • Dans la communauté, des soupçons de rebranding d’un modèle Moonshot et de possible non-respect des obligations de mention de licence ont été soulevés
  • Moonshot a ensuite officiellement reconnu une relation de collaboration avec Cursor, confirmant qu’il ne s’agissait pas d’un usage non autorisé mais d’une collaboration officielle
  • Cet épisode est considéré comme un cas ayant relancé les discussions sur la transparence des modèles d’IA, le respect des licences et les pratiques de rebranding

Polémique autour du modèle Cursor Composer 2

  • Il a été confirmé que Cursor Composer 2 utilise en interne un modèle Kimi K2.5 + RL
    • Un utilisateur a modifié la base URL d’OpenAI pour configurer un serveur vidant les requêtes, et le chemin incluait accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast
    • Cela a révélé que Composer 2 correspond à une version du modèle Kimi K2.5 avec apprentissage par renforcement (RL)
    • Dans Composer 1.5, ce type de requête était bloqué, mais pas dans Composer 2, ce qui a permis de l’identifier
    • Cette faille a ensuite été immédiatement bloquée
  • La communauté a soulevé des questions de possible violation de licence et de problèmes éthiques
    • Certains utilisateurs ont critiqué Cursor, l’accusant d’avoir rebrandé un modèle de Moonshot pour le présenter comme un modèle maison
    • Selon la licence Modified MIT de Kimi K2.5, l’utilisation du modèle nécessiterait une mention explicite dans l’interface utilisateur
    • D’autres ont avancé que le modèle pourrait en réalité être basé sur GLM-5, et donc relever d’une licence MIT standard sans obligation de mention
    • Toutefois, comme l’ID du modèle affichait clairement kimi-k2p5, l’existence d’un accord distinct avec Moonshot a été évoquée
  • Moonshot a ensuite officiellement reconnu la relation de collaboration
    • Moonshot a indiqué être en collaboration avec Cursor et a déclaré que Kimi 2.5 est un excellent modèle
    • Cela a confirmé qu’il ne s’agissait pas d’un simple usage non autorisé mais d’une forme de partenariat officiel
  • Les réactions de la communauté se sont divisées entre critiques éthiques et vision pragmatique
    • Certains estiment que Cursor porte atteinte à l’esprit open source et exploite commercialement les contributions de la communauté
    • D’autres soulignent que « pour la plupart des utilisateurs, la vitesse d’écriture du code et le workflow comptent davantage que le nom du modèle », et que la compétition doit surtout se jouer sur les résultats
    • Certains ont aussi insisté sur le fait qu’un changement de modèle peut modifier l’expérience utilisateur, d’où la nécessité d’une publication transparente des informations sur les modèles
  • Sur le plan technique, le mode d’exposition de l’ID du modèle et la rapidité du correctif de sécurité ont retenu l’attention
    • Le suivi de l’ID du modèle via un proxy est une technique déjà connue, notamment utilisée par le passé pour analyser le comportement de mise en cache de GPT-4
    • Cette fois encore, l’exposition a eu lieu par un mécanisme similaire, et un correctif de blocage a été appliqué en quelques heures
    • Certains utilisateurs ont aussi indiqué avoir confirmé que le fournisseur d’inférence de Cursor est FireworksAI
  • Cette affaire est vue comme un nouvel exemple remettant en lumière les questions de rebranding des modèles d’IA, de respect des licences et de transparence
    • À mesure que les modèles ouverts sont intégrés dans des services commerciaux, l’importance des obligations de mention et de divulgation augmente
    • En parallèle, la tendance selon laquelle le workflow et l’expérience utilisateur priment sur le modèle lui-même comme cœur de la concurrence se renforce

3 commentaires

 
slowandsnow 2026-03-22

Copilot est bien moins cher et meilleur, au point qu’on dirait qu’il n’y a plus vraiment de raison d’utiliser Cursor.

 
GN⁺ 2026-03-21
Réactions sur Hacker News
  • Cursor Composer 1 reposait sur Qwen, cette version est basée sur Kimi. L’IDE lui-même est basé sur VSCode
    Toute l’entreprise semble fonctionner comme un habillage et une revente d’open source. On est à une époque où l’on gagne de l’argent en reconditionnant de l’open source
    Voir sur Twitter des réactions du type « une équipe de 50 personnes a battu Anthropic » fait sourire

    • Je me demande pourquoi il n’y a pas la même indignation du style « les États-Unis ont volé la technologie chinoise ». Quand c’est une entreprise américaine, on la présente comme un « petit challenger héroïque », et quand c’est une entreprise chinoise, on la traite de « voleuse ». C’est un double standard prévisible
    • Ce n’est pas juste un emballage d’open source : il y a aussi du fine-tuning sur leurs propres données. Ce n’est pas pour rien que tous les grands acteurs ont construit leur propre harness de code
    • Le niveau d’intégration de Cursor va bien au-delà du simple fait de brancher un LLM dans VSCode. Cela dit, VSCode ou Claude Code finiront probablement par rattraper leur retard. Pour l’instant, Cursor est devant
    • En clair, cela veut dire que Cursor partage les données avec les LLM chinois dans les deux sens. Kimi peut encore s’entraîner davantage à partir des données d’entrée et de sortie collectées par Cursor
    • En réalité, la plupart des produits technologiques actuels sont construits à partir de plus de 1 000 briques open source. Ce n’est pas ça qui rend Cursor choquant ; la partie vraiment intéressante, c’est plutôt l’ampleur des investissements
  • Moonshot a officiellement confirmé le partenariat. Cursor accède à Kimi-k2.5 via la plateforme FireworksAI_HQ
    Tweet officiel de Moonshot
    Selon Cursor, seulement un quart du calcul du modèle final provient du modèle de base, le reste venant de son propre entraînement
    Explication de leerob

  • Deux employés de Moonshot ont d’abord affirmé au départ qu’« il n’y avait pas de licence », puis l’entreprise a ensuite supprimé les publications pour éviter la controverse
    Article lié

    • Ils n’auraient jamais dû publier ce genre de tweets dès le départ. Internet fait très bien appliquer les licences tout seul
    • Le site officiel de Moonshot indique explicitement que « Kimi K2.5 est un modèle open source, avec le code et les poids publiés sur Hugging Face et GitHub »
    • Il y avait aussi un autre tweet supprimé lien
  • Dire que ce n’est « qu’un Kimi K2.5 avec du RL par-dessus » est réducteur. Obtenir ce genre de résultats avec du RL est très difficile
    L’équipe de recherche de Cursor est très estimée dans le secteur. Il est aussi possible qu’il y ait eu un accord avec Moonshot. En attendant une position officielle, je ne vois pas de problème

    • Je suis surpris par l’excès de colère autour de l’IA. Tout le monde voulait des open weights, mais dès qu’on les exploite, cela dérange à nouveau
  • Cursor est fondamentalement une entreprise de harness IDE/agent de code. Au lieu d’entraîner son propre modèle, il est logique de licencier puis affiner un modèle comme Kimi
    Mais avec une combinaison fork de VSCode + LLM open source, son moat paraît faible

    • Si le génie logiciel ne demande qu’un certain niveau d’intelligence, le harness pourrait devenir plus important que le modèle lui-même
    • Le problème, c’est qu’il y a aussi des affirmations selon lesquelles il n’y aurait réellement pas de licence lien image
    • La vraie valeur de Cursor, ce sont ses données utilisateurs. Les habitudes d’usage, les taux d’approbation et les retours permettent d’A/B tester le fine-tuning
  • Il y a beaucoup de raisons de se moquer de Cursor, mais pour ce qui est du modèle d’autocomplétion, ils ont vraiment fait du très bon travail
    Je me demande pourquoi OpenAI ou Anthropic n’investissent pas davantage sur ce point

    • Je suis d’accord aussi. L’autocomplétion au Tab de Cursor est la meilleure, mais ces temps-ci le coding orienté agents domine, donc je l’utilise moins souvent
    • Antigravity possède aussi un modèle d’autocomplétion basé sur Windsurf
    • Le modèle est excellent, mais l’UX est franchement agaçante
    • Beaucoup d’entreprises ont abandonné l’autocomplétion récemment, et c’est dommage. Surtout dans des codebases non standard, une bonne autocomplétion est bien plus utile qu’un agent
  • Cursor a déclaré publiquement avoir « pris un modèle open source et l’avoir amélioré avec ses propres données de code »
    Ils ont appliqué du continued pretraining et du RL, en précisant que ce n’était pas un préentraînement complet
    Le fait d’avoir dépassé Opus 4.6 et d’atteindre presque GPT-5.4 est impressionnant. C’est particulièrement notable alors que même Meta a du mal à rattraper OpenAI/Anthropic

  • Le fait que Cursor avance de cette façon est une stratégie normale. Toutes les entreprises n’ont pas besoin d’entraîner elles-mêmes un modèle fondation
    Il faut une concurrence au niveau produit pour bousculer la structure tarifaire monopolistique d’Anthropic et d’OpenAI

  • En RL, il n’y a pas de « juste ». Le fine-tuning est un élément clé qui peut profondément changer les résultats

    • D’après ce qui circule, GPT-5 utiliserait aussi la même base de préentraînement que GPT-4o
  • Moonshot a probablement violé ses ToS. L’affaire pourrait devenir intéressante

    • Mais Moonshot s’est aussi entraîné sur des sorties de modèles Anthropic en violant les ToS, et Anthropic est lui-même pris dans des polémiques sur le droit d’auteur. Au final, tout le monde est en infraction
    • En pratique, ce n’est pas le ToS qui s’applique, mais une licence MIT modifiée. Au-delà de 100 millions de MAU ou de 20 millions de dollars de revenus mensuels, il faut afficher « Kimi K2.5 » dans l’interface utilisateur
      Texte complet de la licence
    • Ils ont probablement obtenu une licence. Le fait de ne pas l’avoir indiqué dans la model card manque de transparence, mais le white labeling est une pratique courante
    • D’après les conditions de la licence MIT modifiée de Kimi K2.5, au-delà d’une certaine taille il suffit d’afficher le nom, donc cela ne devrait pas poser de problème
 
xguru 2026-03-21

Cursor Composer 1 utilisait Qwen, et cette version semble basée sur Kimi. L’IDE repose sur VSCode.
L’entreprise entière semble fonctionner en emballant et revendant de l’open source. En ce moment, c’est l’époque où l’on gagne de l’argent en reconditionnant de l’open source.

Oups, ça risque de faire un peu mal à l’équipe de Cursor si elle voit ça..