- Qwen3.6-Plus est un modèle ayant bénéficié d’une mise à niveau majeure après Qwen3.5, avec un fort renforcement des capacités de codage orientées agent et des performances de raisonnement multimodal
- Il prend en charge une fenêtre de contexte de 1M de tokens et est disponible immédiatement via l’API Alibaba Cloud Model Studio
- Il affiche des performances de premier plan sur les benchmarks de codage, de langage, multimodaux et d’agents, tout en améliorant sa capacité à gérer du code complexe et à exécuter des plans à long terme
- Grâce à l’option
preserve_thinking, il conserve le contexte de raisonnement et prend en charge l’intégration avec divers agents de codage comme OpenClaw, Claude Code et Qwen Code - Il évolue vers une IA multimodale orientée agent capable d’aller de la perception visuelle à la prise de décision d’action, avec pour objectif futur l’open source de petits modèles et l’extension vers des super-agents hautement autonomes
Résumé des principales fonctionnalités et performances de Qwen3.6-Plus
- Qwen3.6-Plus est une version fortement mise à niveau publiée après la série Qwen3.5, un modèle qui renforce nettement les capacités de codage orientées agent et les performances de raisonnement multimodal
- Il est utilisable immédiatement via l’API d’Alibaba Cloud Model Studio et fournit nativement une fenêtre de contexte de 1M de tokens
- En intégrant les retours de la communauté, il améliore la stabilité et la fiabilité, et vise une expérience de « vibe coding » en environnement de développement réel
Évaluation des performances
- Il enregistre des performances parmi les meilleures de sa catégorie sur divers benchmarks de langage, de codage, multimodaux et d’agents
- Dans le domaine des agents de codage, il obtient sur des benchmarks majeurs comme SWE-bench, Terminal-Bench et Claw-Eval des résultats comparables ou supérieurs à ceux des modèles leaders du secteur
- Dans les domaines des agents généraux et de l’usage d’outils, il progresse globalement sur TAU3-Bench, DeepPlanning et MCPMark
- Il établit aussi de nouveaux meilleurs scores en raisonnement STEM, extraction d’informations dans des textes très longs et adaptation multilingue
- Le modèle intègre de façon organique le raisonnement logique, la mémoire et l’exécution d’outils, renforçant ainsi ses capacités de résolution de problèmes du monde réel comme la gestion de code complexe ou la planification de long terme
Performances multimodales
- Grâce à un raisonnement multimodal avancé, il réalise de grands progrès en compréhension de documents, analyse du monde physique, raisonnement vidéo et codage visuel
- En matière d’applicabilité au monde réel, il offre des performances stables en environnement métier réel pour la reconnaissance de texte et d’objets ainsi que la perception visuelle de précision
- Grâce à l’intégration vision-langage, il dépasse la performance sur tâches unitaires pour évoluer vers une IA orientée agent centrée sur les workflows
- Sur divers benchmarks comme RealWorldQA, OmniDocBench, CountBench et VideoMME, il montre des résultats compétitifs face à GPT5.2, Claude 4.5 et Gemini-3 Pro
API et intégration au développement
- L’API Alibaba Cloud Model Studio prend en charge des protocoles compatibles avec OpenAI et Anthropic
- Nouvelle option d’API
preserve_thinking- Elle conserve le contenu de raisonnement des échanges précédents afin d’améliorer la cohérence des tâches orientées agent et l’efficacité en tokens
- La valeur par défaut est désactivée (
false) et, une fois activée, elle conserve l’ensemble du contexte de raisonnement
- L’API est accessible via l’endpoint compatible OpenAI
chat.completions, avec du code d’exemple fourni
Intégration du codage et des agents
- Qwen3.6-Plus peut s’intégrer à des assistants de codage tiers comme OpenClaw, Claude Code, Qwen Code, Kilo Code, Cline et OpenCode
- En développement frontend, ses capacités de traitement de projets complexes comme les scènes 3D, les jeux et le web design sont renforcées
-
Intégration OpenClaw
- Il s’agit d’un agent de codage IA open source auto-hébergé qui, connecté à Model Studio, fournit un environnement de codage orienté agent basé sur le terminal
- Il peut être utilisé en ajoutant le modèle Qwen3.6-Plus au fichier de configuration (
openclaw.json) - Le modèle prend en charge le raisonnement activé, les entrées texte et image ainsi qu’une fenêtre de contexte de 1M
-
Intégration Qwen Code
- Agent de codage IA open source en terminal optimisé pour la série Qwen
- Il prend en charge la compréhension de bases de code complexes, l’automatisation de tâches répétitives et le déploiement rapide
- Après installation dans un environnement Node.js, l’authentification est possible via la commande
/auth
-
Intégration Claude Code
- Grâce à la compatibilité avec le protocole d’API Anthropic, Qwen3.6-Plus peut aussi être utilisé dans Claude Code CLI
- Il s’exécute après configuration du nom du modèle (
qwen3.6-plus) et de l’endpoint API via des variables d’environnement
Agents visuels et extension multimodale
- Il continue de renforcer une trajectoire d’évolution allant de la perception visuelle → raisonnement multimodal → exécution agentique
- Il ne se limite pas à la simple reconnaissance, mais peut aussi effectuer l’analyse des relations dans l’information visuelle et la prise de décision d’action
- Il prend en charge des tâches visuelles pratiques telles que la compréhension de documents, l’analyse de graphiques, la reconnaissance d’interface utilisateur et le repérage précis
- Dans le domaine de la compréhension vidéo, il peut traiter les informations temporelles et les relations entre images afin d’analyser du contenu dynamique
- Dans des scénarios d’agents GUI, il reconnaît l’état de l’écran et exécute une planification et une exécution en plusieurs étapes
Feuille de route
- Qwen3.6-Plus constitue une version marquant un progrès concret dans le codage orienté agent et l’IA multimodale, tout en renforçant les bases de l’écosystème développeur
- La publication complète de la série Qwen3.6 et la mise en open source de petits modèles sont prévues prochainement
- À long terme, l’objectif est d’évoluer vers des super-agents hautement autonomes capables d’exécuter des tâches complexes de long terme à l’échelle d’un dépôt
Aucun commentaire pour le moment.