ChatPaper.aiChatPaper

Qwen3-Coder-Next 技術報告書

Qwen3-Coder-Next Technical Report

February 28, 2026
著者: Ruisheng Cao, Mouxiang Chen, Jiawei Chen, Zeyu Cui, Yunlong Feng, Binyuan Hui, Yuheng Jing, Kaixin Li, Mingze Li, Junyang Lin, Zeyao Ma, Kashun Shum, Xuwu Wang, Jinxi Wei, Jiaxi Yang, Jiajun Zhang, Lei Zhang, Zongmeng Zhang, Wenting Zhao, Fan Zhou
cs.AI

要旨

本論文では、コーディングエージェントに特化したオープンウェイト言語モデルであるQwen3-Coder-Nextを提案する。Qwen3-Coder-Nextは800億パラメータを有するが、推論時には30億パラメータのみを活性化するため、強力なコーディング能力を効率的な推論で実現する。本研究では、強力なトレーニング手法によって、少ないパラメータ規模のモデルの能力限界をどこまで押し上げられるかを探求する。これを実現するため、実行可能な環境と組み合わせた検証可能なコーディングタスクの大規模合成を通じたエージェント的トレーニングを実施し、トレーニング中学習および強化学習による環境フィードバックからの直接学習を可能にした。SWE-BenchやTerminal-Benchを含むエージェント中心のベンチマークにおいて、Qwen3-Coder-Nextはその活性化パラメータ数に対して競争力のある性能を達成した。研究および実世界のコーディングエージェント開発を支援するため、ベース版と指示チューニング版の両オープンウェイトモデルを公開する。
English
We present Qwen3-Coder-Next, an open-weight language model specialized for coding agents. Qwen3-Coder-Next is an 80-billion-parameter model that activates only 3 billion parameters during inference, enabling strong coding capability with efficient inference. In this work, we explore how far strong training recipes can push the capability limits of models with small parameter footprints. To achieve this, we perform agentic training through large-scale synthesis of verifiable coding tasks paired with executable environments, allowing learning directly from environment feedback via mid-training and reinforcement learning. Across agent-centric benchmarks including SWE-Bench and Terminal-Bench, Qwen3-Coder-Next achieves competitive performance relative to its active parameter count. We release both base and instruction-tuned open-weight versions to support research and real-world coding agent development.
PDF645May 8, 2026