ChatPaper.aiChatPaper

# Qwen3-Coder-Next 기술 보고서

Qwen3-Coder-Next Technical Report

February 28, 2026
저자: Ruisheng Cao, Mouxiang Chen, Jiawei Chen, Zeyu Cui, Yunlong Feng, Binyuan Hui, Yuheng Jing, Kaixin Li, Mingze Li, Junyang Lin, Zeyao Ma, Kashun Shum, Xuwu Wang, Jinxi Wei, Jiaxi Yang, Jiajun Zhang, Lei Zhang, Zongmeng Zhang, Wenting Zhao, Fan Zhou
cs.AI

초록

코딩 에이전트에 특화된 오픈 웨이트 언어 모델인 Qwen3-Coder-Next를 소개합니다. Qwen3-Coder-Next는 800억 개의 파라미터를 가지며 추론 시에는 30억 개의 파라미터만 활성화되어, 효율적인 추론 속도와 강력한 코딩 능력을 동시에 제공합니다. 본 연구에서는 강력한 학습 방법론이 적은 파라미터 규모의 모델 성능 한계를 어디까지 끌어올릴 수 있는지 탐구합니다. 이를 위해 실행 가능한 환경과 결합된 대규모 검증 가능 코딩 과제를 합성하여 에이전트 학습을 수행하고, 중간 학습 및 강화 학습을 통해 환경 피드백으로부터 직접 학습할 수 있도록 했습니다. SWE-Bench 및 Terminal-Bench를 포함한 에이전트 중심 벤치마크에서 Qwen3-Coder-Next는 활성 파라미터 수 대비 경쟁력 있는 성능을 달성했습니다. 연구 및 실제 코딩 에이전트 개발을 지원하기 위해 기본 모델과 지시어 튜닝 버전의 오픈 웨이트 모델을 모두 공개합니다.
English
We present Qwen3-Coder-Next, an open-weight language model specialized for coding agents. Qwen3-Coder-Next is an 80-billion-parameter model that activates only 3 billion parameters during inference, enabling strong coding capability with efficient inference. In this work, we explore how far strong training recipes can push the capability limits of models with small parameter footprints. To achieve this, we perform agentic training through large-scale synthesis of verifiable coding tasks paired with executable environments, allowing learning directly from environment feedback via mid-training and reinforcement learning. Across agent-centric benchmarks including SWE-Bench and Terminal-Bench, Qwen3-Coder-Next achieves competitive performance relative to its active parameter count. We release both base and instruction-tuned open-weight versions to support research and real-world coding agent development.
PDF645May 8, 2026