Технический отчет KAT-Coder-V2
KAT-Coder-V2 Technical Report
March 29, 2026
Авторы: Fengxiang Li, Han Zhang, Haoyang Huang, Jinghui Wang, Jinhua Hao, Kun Yuan, Mengtong Li, Minglei Zhang, Pengcheng Xu, Wenhao Zhuang, Yizhen Shao, Zongxian Feng, Can Tang, Chao Wang, Chengxiao Tong, Fan Yang, Gang Xiong, Haixuan Gao, Han Gao, Hao Wang, Haochen Liu, Hongliang Sun, Jiabao Li, Jingwen Chang, Jun Du, Junyi Peng, Leizhen Cui, Meimei Jing, Mingqi Wu, Shangpeng Yan, Shaotong Qi, Suzhe Xu, Wenxuan Zhao, Xianda Sun, Xuan Xie, Yanbo Wang, Yao Xia, Yinghan Cui, Yingpeng Chen, Yong Wang, Yuze Shi, Zhiwei Shen, Ziyu Wang, Ming Sun, Lin Ye, Bin Chen
cs.AI
Аннотация
Мы представляем KAT-Coder-V2 — агентную модель для программирования, разработанную командой KwaiKAT компании Kuaishou. KAT-Coder-V2 использует парадигму «Специализация с последующей унификацией», которая декомпозирует агентное программирование на пять экспертных областей: SWE, WebCoding, Terminal, WebSearch и General. Каждая из областей проходит независимое контролируемое тонкое настройку и обучение с подкреплением, после чего консолидируется в единую модель с помощью дистилляции на основе политики. Мы разработали KwaiEnv — модульную инфраструктуру, поддерживающую десятки тысяч параллельных песочниц, и масштабировали обучение с подкреплением по сложности задач, соответствию намерениям и обобщению scaffolding. Дополнительно мы предложили MCLA для стабилизации обучения MoE с подкреплением и Tree Training для устранения избыточных вычислений на древовидных траекториях с ускорением до 6,2 раза. KAT-Coder-V2 демонстрирует результат 79,6% на SWE-bench Verified (против 80,8% у Claude Opus), 88,7 на PinchBench (превосходя GLM-5 и MiniMax M2.7), занимает первое место во всех трёх сценариях фронтенд-эстетики и сохраняет высокие общие показатели на Terminal-Bench Hard (46,8) и tau²-Bench (93,9). Наша модель доступна по адресу https://streamlake.com/product/kat-coder.
English
We present KAT-Coder-V2, an agentic coding model developed by the KwaiKAT team at Kuaishou. KAT-Coder-V2 adopts a "Specialize-then-Unify" paradigm that decomposes agentic coding into five expert domains - SWE, WebCoding, Terminal, WebSearch, and General - each undergoing independent supervised fine-tuning and reinforcement learning, before being consolidated into a single model via on-policy distillation. We develop KwaiEnv, a modular infrastructure sustaining tens of thousands of concurrent sandbox instances, and scale RL training along task complexity, intent alignment, and scaffold generalization. We further propose MCLA for stabilizing MoE RL training and Tree Training for eliminating redundant computation over tree-structured trajectories with up to 6.2x speedup. KAT-Coder-V2 achieves 79.6% on SWE-bench Verified (vs. Claude Opus 4.6 at 80.8%), 88.7 on PinchBench (surpassing GLM-5 and MiniMax M2.7), ranks first across all three frontend aesthetics scenarios, and maintains strong generalist scores on Terminal-Bench Hard (46.8) and tau^2-Bench (93.9). Our model is publicly available at https://streamlake.com/product/kat-coder.