KAT-Coder-V2 Technisch Rapport
KAT-Coder-V2 Technical Report
March 29, 2026
Auteurs: Fengxiang Li, Han Zhang, Haoyang Huang, Jinghui Wang, Jinhua Hao, Kun Yuan, Mengtong Li, Minglei Zhang, Pengcheng Xu, Wenhao Zhuang, Yizhen Shao, Zongxian Feng, Can Tang, Chao Wang, Chengxiao Tong, Fan Yang, Gang Xiong, Haixuan Gao, Han Gao, Hao Wang, Haochen Liu, Hongliang Sun, Jiabao Li, Jingwen Chang, Jun Du, Junyi Peng, Leizhen Cui, Meimei Jing, Mingqi Wu, Shangpeng Yan, Shaotong Qi, Suzhe Xu, Wenxuan Zhao, Xianda Sun, Xuan Xie, Yanbo Wang, Yao Xia, Yinghan Cui, Yingpeng Chen, Yong Wang, Yuze Shi, Zhiwei Shen, Ziyu Wang, Ming Sun, Lin Ye, Bin Chen
cs.AI
Samenvatting
Wij presenteren KAT-Coder-V2, een agent-gebaseerd coderingsmodel ontwikkeld door het KwaiKAT-team van Kuaishou. KAT-Coder-V2 hanteert een "Specialiseer-dan-Verenig"-paradigma dat agent-gebaseerd coderen opdeelt in vijf expertgebieden - SWE, WebCoding, Terminal, WebSearch en Algemeen - die elk onafhankelijke supervised fine-tuning en reinforcement learning ondergaan, voordat ze worden geconsolideerd tot één enkel model via on-policy distillatie. Wij ontwikkelden KwaiEnv, een modulaire infrastructuur die tienduizenden gelijktijdige sandbox-instanties ondersteunt, en schalen RL-training op langs taakcomplexiteit, intentie-uitlijning en scaffold-generalizatie. Verder stellen wij MCLA voor om MoE RL-training te stabiliseren en Tree Training om redundante berekeningen over boomgestructureerde trajecten te elimineren met een versnelling tot 6.2x. KAT-Coder-V2 behaalt 79.6% op SWE-bench Verified (vs. Claude Opus 4.6 op 80.8%), 88.7 op PinchBench (beter dan GLM-5 en MiniMax M2.7), staat op de eerste plaats in alle drie frontend-estheticascenario's, en behoudt sterke generalistenscores op Terminal-Bench Hard (46.8) en tau^2-Bench (93.9). Ons model is openbaar beschikbaar op https://streamlake.com/product/kat-coder.
English
We present KAT-Coder-V2, an agentic coding model developed by the KwaiKAT team at Kuaishou. KAT-Coder-V2 adopts a "Specialize-then-Unify" paradigm that decomposes agentic coding into five expert domains - SWE, WebCoding, Terminal, WebSearch, and General - each undergoing independent supervised fine-tuning and reinforcement learning, before being consolidated into a single model via on-policy distillation. We develop KwaiEnv, a modular infrastructure sustaining tens of thousands of concurrent sandbox instances, and scale RL training along task complexity, intent alignment, and scaffold generalization. We further propose MCLA for stabilizing MoE RL training and Tree Training for eliminating redundant computation over tree-structured trajectories with up to 6.2x speedup. KAT-Coder-V2 achieves 79.6% on SWE-bench Verified (vs. Claude Opus 4.6 at 80.8%), 88.7 on PinchBench (surpassing GLM-5 and MiniMax M2.7), ranks first across all three frontend aesthetics scenarios, and maintains strong generalist scores on Terminal-Bench Hard (46.8) and tau^2-Bench (93.9). Our model is publicly available at https://streamlake.com/product/kat-coder.