5 points par GN⁺ 2026-03-05 | 2 commentaires | Partager sur WhatsApp
  • De nombreux chercheurs clés de l’équipe Qwen d’Alibaba ont démissionné, ce qui rend incertain l’avenir de la série de modèles Qwen 3.5 récemment dévoilée
  • Le chef d’équipe Lin Junyang a annoncé sa démission, suivi par plusieurs membres essentiels de l’équipe
  • La famille de modèles Qwen 3.5, lancée récemment, attire d’autant plus l’attention qu’elle affiche d’excellentes performances même sur les petits modèles
  • La possible dislocation de l’équipe Qwen pourrait constituer un tournant majeur pour l’écosystème chinois de recherche en IA open source

Changements de personnel au sein de l’équipe Qwen

  • Juste après la publication de la série de modèles Qwen 3.5 d’Alibaba, le chef d’équipe Lin Junyang a annoncé sa démission sur X (anciennement Twitter) avec le message : « me stepping down. bye my beloved qwen. »
    • Lin était, depuis 2024, un chercheur clé ayant mené la publication des modèles à poids ouverts de Qwen, et faisait partie des plus jeunes employés de niveau P10 chez Alibaba
  • Selon un article du média chinois 36Kr, le Tongyi Lab d’Alibaba a convoqué vers 13 h le 4 mars une réunion d’urgence à l’échelle de l’entreprise, au cours de laquelle le CEO Wu Yongming a expliqué directement la situation à l’équipe Qwen
    • La démission de Lin avait été annoncée 12 heures plus tôt, à 0 h 11, et aurait aussi provoqué un choc important en interne
    • Vers 14 h, Lin a laissé sur WeChat le message : « Frères de Qwen, continuez comme prévu. Pas de problème », sans préciser clairement s’il comptait revenir
    • Des membres de l’équipe Qwen ont déclaré à 36Kr que « dans un contexte de ressources bien inférieures à celles des concurrents, le leadership de Junyang a été un facteur clé des résultats actuels »
  • Parmi les éléments avancés pour expliquer cette démission figure une réorganisation interne chez Alibaba, dans laquelle un nouveau chercheur issu de l’équipe Google Gemini aurait été placé à la tête de Qwen, mais cette information n’est pas confirmée

Départs en chaîne de membres clés

  • Après la démission de Lin, plusieurs membres clés ont également quitté l’équipe
    • Binyuan Hui : responsable du développement du code de Qwen, en charge de la série Qwen-Coder, du cycle complet d’apprentissage des agents, et récemment impliqué dans la recherche en robotique
    • Bowen Yu : responsable du post-training de Qwen, à la tête du développement de la série Qwen-Instruct
    • Kaixin Li : contributeur majeur à Qwen 3.5/VL/Coder, docteur de l’Université nationale de Singapour
    • En plus d’eux, plusieurs jeunes chercheurs auraient démissionné le même jour
  • Le fait que le CEO d’Alibaba ait personnellement participé à la réunion montre que l’entreprise est consciente de la gravité de la situation

Caractéristiques du modèle Qwen 3.5

  • Qwen 3.5 est une famille de modèles à poids ouverts publiée ces dernières semaines par l’équipe Qwen d’Alibaba, avec des performances très élevées
    • Qwen3.5-397B-A17B, publié le 17 février, est un grand modèle de 807 GB
    • Ont ensuite été publiés successivement des modèles de tailles 122B, 35B, 27B, 9B, 4B, 2B et 0.8B
  • Les modèles 27B et 35B sont bien évalués en code, et les modèles 9B, 4B et 2B sont très efficaces au regard de leur taille
    • Les modèles 27B et 35B peuvent tourner sur des Mac 32 GB/64 GB tout en traitant très bien les tâches de programmation
    • En particulier, le modèle 2B ne pèse que 4.57 GB (1.27 GB une fois quantifié), tout en prenant en charge à la fois le raisonnement et les capacités multimodales (vision)

Perspectives

  • Si l’équipe Qwen est dissoute, il est possible que les travaux ayant permis d’obtenir des performances de haute qualité sur de petits modèles soient interrompus
  • Si les membres de l’équipe fondent un nouveau laboratoire ou rejoignent d’autres institutions, les attentes autour de recherches de suivi restent fortes
  • La situation reste pour l’instant « encore incertaine », et Alibaba pourrait aussi conserver une partie des effectifs

Sources externes citées

2 commentaires

 
mammal 2026-03-05

La démission de Lin Junyang est un choc. J’utilisais bien Qwen 3.5 35B-A3B, donc j’attendais Qwen 4 avec impatience T_T

 
GN⁺ 2026-03-05
Commentaires sur Hacker News
  • J’espère que le développement ne sera pas trop perturbé. Comme l’a dit Simon, Qwen3.5 est vraiment impressionnant
    J’ai testé Qwen3.5-35B-A3B ces derniers jours, et c’est jusqu’ici le modèle avec les meilleures capacités de codage agentique que j’aie utilisé
    Je lui ai fait écrire du code Rust et Elixir avec le harnais Pi, et il créait lui-même les tests puis vérifiait s’ils passaient. Il gère bien les boucles d’erreurs de test ou de compilation tout en avançant vers l’objectif
    • J’ai fait tourner la 3.5:122b sur un GH200, et pour du travail Rust/React/TS c’est un peu en dessous de Sonnet, mais ça gère très bien les tâches de petite portée
      En revanche, il a tendance à ignorer les consignes en cours de route et à supprimer tout le code de support en se disant que « ce serait plus simple comme ça »
    • Je l’ai aussi testé en Rust, et il est parfois tombé dans une boucle infinie avant de s’en sortir tout seul
      Il s’est embrouillé lui-même en choisissant deadpool et deadpool-r2d2 dès la phase de planification. Malgré ça, le code est globalement correct, et seule la couche base de données semble demander quelques retouches
      Jusqu’ici, c’est le modèle auto-hébergeable le plus stable
    • En utilisant le modèle dense 27B, j’ai constaté beaucoup moins de boucles et de répétitions inutiles
    • Je me demande si tu l’exécutes en local avec llama.cpp. Avec le chat template par défaut, l’appel d’outils échouait, mais avec ce template, ça marche nettement mieux
    • Je me demande sur quel matériel tu le fais tourner. Est-ce que tu as l’impression qu’il peut remplacer les modèles frontier pour le code au quotidien ?
  • Apparemment, il y avait des tensions entre l’équipe de recherche Qwen et l’équipe produit d’Alibaba. J’ai entendu dire qu’Alibaba avait récemment voulu imposer la DAU comme KPI
    D’un point de vue entreprise, je peux comprendre le changement de stratégie, mais je me demande pourquoi ils ont laissé partir des chercheurs clés. On n’est pas justement dans une période où les chercheurs en modèles manquent ?
    • Ils envisageaient peut-être de faire évoluer les futurs modèles Qwen vers des modèles commerciaux fermés, et l’équipe de recherche n’a peut-être pas pu l’accepter
  • Je me demande pourquoi les laboratoires américains n’investissent pas des sommes colossales dans ces talents
    • Dans ma région (Ohio), l’ICE mène des opérations contre les Chinois. Même des résidents en situation régulière se sentent exposés à un risque d’expulsion
      Dans une telle ambiance, même si les labos américains dépensent sans compter, il leur sera difficile d’attirer des talents
    • Les États-Unis ont créé une situation où même les immigrés légaux sont exposés à un risque de détention
    • L’Europe devrait développer des modèles concurrents pour se préparer à l’instabilité politique américaine
    • Ceux qui étaient déjà attirés par le capital américain sont partis, et la Chine investit déjà suffisamment
      En plus, dans les entreprises chinoises, on peut avoir une plus grande influence sur les décisions
    • Le problème ne se limite pas aux coupes dans le budget de la NSF. Les questions de santé, les risques de guerre et l’incertitude pour les chercheurs étrangers ont réduit l’attractivité des États-Unis
      Depuis l’administration Trump, l’afflux d’étudiants étrangers diminuait déjà, et aujourd’hui faire un doctorat aux États-Unis est presque perçu comme un risque de réputation
  • Quand on utilise des modèles locaux, les gens ont tendance à être plus tolérants à l’expérimentation
    Quand un modèle cloud gaspille des tokens, on regrette le coût, mais quand un modèle local boucle, on se dit plutôt « il est en train de réfléchir »
    Si des modèles comme Qwen deviennent suffisamment bons pour le code en local, le changement sera probablement davantage économique que technique
    • Le gaspillage de tokens en local est presque bienvenu. Le GPU mainframe dans ma chambre sert de chauffage (merci au chauffage instable en Suisse)
  • J’ai fait tourner le modèle 32B en local pendant quelques jours, et il gère plutôt bien le codage agentique
    Les performances sont excellentes pour sa taille, mais avec de longues consignes il a tendance à en ignorer la moitié. À cette échelle, c’est un compromis acceptable
  • En tant que mathématicien, j’ai utilisé Qwen pour automatiser les relations entre articles et leurs résumés
    J’ai même fait de la vérification de fausses citations, utilisée ensuite sur des articles arXiv
    J’ai rassemblé les résultats sur cette page
  • J’espère que l’équipe de recherche continuera ailleurs la compétition sur les modèles à poids ouverts
    Je pensais en réalité que ce type de recherche devrait être soutenu par les gouvernements, mais aujourd’hui ce sont les entreprises chinoises qui remplissent ce rôle
  • Qwen3.5 est vraiment excellent. J’ai fait tourner la version 35B sur une Ada NextGen 24GB avec easy-llm-cli, et c’était presque au niveau de Gemini 3 Pro
    C’était aussi assez rapide
    • Avec un réglage q4 quant, j’ai pu obtenir 175 tg et 7K pp, avec une efficacité supérieure à celle de la plupart des fournisseurs cloud
  • Ces derniers temps, on est passé de « l’IA remplace les humains » à « l’IA meurt sans certaines personnes ». C’est vraiment un virage spectaculaire
    • Le taux de disponibilité d’Anthropic n’est pas de 99.9999999 %, mais à peine autour de 90 %. On peut le voir sur la page d’état
      Si l’IA pouvait vraiment remplacer totalement les humains, les CEO n’auraient pas besoin de faire autant d’efforts pour convaincre
    • Dire que « l’IA meurt sans certaines personnes » est exagéré. Les gens se demandent simplement quel sera l’avenir de la famille de modèles Qwen
    • Le passage de l’objectif AGI à une stratégie court terme centrée sur la publicité illustre bien la situation actuelle
    • Claude n’est même pas capable de créer une application native tout seul, et son appli web est elle aussi instable, ce qui explique pourquoi Anthropic a racheté Bun
  • Oubliez, ici c’est Chinatown