KAT-Coder-V2 Technischer Bericht
KAT-Coder-V2 Technical Report
March 29, 2026
Autoren: Fengxiang Li, Han Zhang, Haoyang Huang, Jinghui Wang, Jinhua Hao, Kun Yuan, Mengtong Li, Minglei Zhang, Pengcheng Xu, Wenhao Zhuang, Yizhen Shao, Zongxian Feng, Can Tang, Chao Wang, Chengxiao Tong, Fan Yang, Gang Xiong, Haixuan Gao, Han Gao, Hao Wang, Haochen Liu, Hongliang Sun, Jiabao Li, Jingwen Chang, Jun Du, Junyi Peng, Leizhen Cui, Meimei Jing, Mingqi Wu, Shangpeng Yan, Shaotong Qi, Suzhe Xu, Wenxuan Zhao, Xianda Sun, Xuan Xie, Yanbo Wang, Yao Xia, Yinghan Cui, Yingpeng Chen, Yong Wang, Yuze Shi, Zhiwei Shen, Ziyu Wang, Ming Sun, Lin Ye, Bin Chen
cs.AI
Zusammenfassung
Wir stellen KAT-Coder-V2 vor, ein agentenbasiertes Codierungsmodell, das vom KwaiKAT-Team bei Kuaishou entwickelt wurde. KAT-Coder-V2 folgt einem „Specialize-then-Unify“-Paradigma, das agentenbasiertes Codieren in fünf Expertenbereiche unterteilt – SWE, WebCoding, Terminal, WebSearch und General. Jeder Bereich durchläuft unabhängiges Supervised Fine-Tuning und Reinforcement Learning, bevor die Bereiche durch On-Policy-Distillation in einem einzigen Modell konsolidiert werden. Wir entwickelten KwaiEnv, eine modulare Infrastruktur, die Zehntausende gleichzeitiger Sandbox-Instanzen unterstützt, und skalieren das RL-Training entlang der Aufgabenkomplexität, Intent-Alignment und Gerüst-Generalisierung. Wir schlagen weiterhin MCLA zur Stabilisierung des MoE-RL-Trainings und Tree Training vor, um redundante Berechnungen über baumstrukturierte Trajektorien zu eliminieren, was eine bis zu 6,2-fache Beschleunigung ermöglicht. KAT-Coder-V2 erreicht 79,6 % auf SWE-bench Verified (vs. Claude Opus mit 80,8 %), 88,7 auf PinchBench (übertrifft GLM-5 und MiniMax M2.7), belegt den ersten Platz in allen drei Frontend-Ästhetik-Szenarien und erzielt starke Generalisten-Werte auf Terminal-Bench Hard (46,8) und tau^2-Bench (93,9). Unser Modell ist öffentlich verfügbar unter https://streamlake.com/product/kat-coder.
English
We present KAT-Coder-V2, an agentic coding model developed by the KwaiKAT team at Kuaishou. KAT-Coder-V2 adopts a "Specialize-then-Unify" paradigm that decomposes agentic coding into five expert domains - SWE, WebCoding, Terminal, WebSearch, and General - each undergoing independent supervised fine-tuning and reinforcement learning, before being consolidated into a single model via on-policy distillation. We develop KwaiEnv, a modular infrastructure sustaining tens of thousands of concurrent sandbox instances, and scale RL training along task complexity, intent alignment, and scaffold generalization. We further propose MCLA for stabilizing MoE RL training and Tree Training for eliminating redundant computation over tree-structured trajectories with up to 6.2x speedup. KAT-Coder-V2 achieves 79.6% on SWE-bench Verified (vs. Claude Opus 4.6 at 80.8%), 88.7 on PinchBench (surpassing GLM-5 and MiniMax M2.7), ranks first across all three frontend aesthetics scenarios, and maintains strong generalist scores on Terminal-Bench Hard (46.8) and tau^2-Bench (93.9). Our model is publicly available at https://streamlake.com/product/kat-coder.