ChatPaper.aiChatPaper

Rapport Technique de KAT-Coder-V2

KAT-Coder-V2 Technical Report

March 29, 2026
Auteurs: Fengxiang Li, Han Zhang, Haoyang Huang, Jinghui Wang, Jinhua Hao, Kun Yuan, Mengtong Li, Minglei Zhang, Pengcheng Xu, Wenhao Zhuang, Yizhen Shao, Zongxian Feng, Can Tang, Chao Wang, Chengxiao Tong, Fan Yang, Gang Xiong, Haixuan Gao, Han Gao, Hao Wang, Haochen Liu, Hongliang Sun, Jiabao Li, Jingwen Chang, Jun Du, Junyi Peng, Leizhen Cui, Meimei Jing, Mingqi Wu, Shangpeng Yan, Shaotong Qi, Suzhe Xu, Wenxuan Zhao, Xianda Sun, Xuan Xie, Yanbo Wang, Yao Xia, Yinghan Cui, Yingpeng Chen, Yong Wang, Yuze Shi, Zhiwei Shen, Ziyu Wang, Ming Sun, Lin Ye, Bin Chen
cs.AI

Résumé

Nous présentons KAT-Coder-V2, un modèle de programmation agentiel développé par l'équipe KwaiKAT de Kuaishou. KAT-Coder-V2 adopte un paradigme « Spécialiser puis Unifier » qui décompose la programmation agentielle en cinq domaines d'expertise - SWE, WebCoding, Terminal, WebSearch et Général - chacun faisant l'objet d'un réglage fin supervisé et d'un apprentissage par renforcement indépendants, avant d'être consolidé en un modèle unique via une distillation sur politique. Nous développons KwaiEnv, une infrastructure modulaire supportant des dizaines de milliers d'instances sandbox concurrentes, et mettons à l'échelle l'entraînement par RL selon la complexité des tâches, l'alignement des intentions et la généralisation des échafaudages. Nous proposons en outre MCLA pour stabiliser l'entraînement RL des MoE et l'Entraînement Arborescent pour éliminer les calculs redondants sur les trajectoires arborescentes avec une accélération allant jusqu'à 6,2x. KAT-Coder-V2 atteint 79,6% sur SWE-bench Verified (contre 80,8% pour Claude Opus), 88,7 sur PinchBench (dépassant GLM-5 et MiniMax M2.7), se classe premier dans les trois scénarios d'esthétique frontale, et maintient des scores généralistes solides sur Terminal-Bench Hard (46,8) et tau^2-Bench (93,9). Notre modèle est disponible publiquement à l'adresse https://streamlake.com/product/kat-coder.
English
We present KAT-Coder-V2, an agentic coding model developed by the KwaiKAT team at Kuaishou. KAT-Coder-V2 adopts a "Specialize-then-Unify" paradigm that decomposes agentic coding into five expert domains - SWE, WebCoding, Terminal, WebSearch, and General - each undergoing independent supervised fine-tuning and reinforcement learning, before being consolidated into a single model via on-policy distillation. We develop KwaiEnv, a modular infrastructure sustaining tens of thousands of concurrent sandbox instances, and scale RL training along task complexity, intent alignment, and scaffold generalization. We further propose MCLA for stabilizing MoE RL training and Tree Training for eliminating redundant computation over tree-structured trajectories with up to 6.2x speedup. KAT-Coder-V2 achieves 79.6% on SWE-bench Verified (vs. Claude Opus 4.6 at 80.8%), 88.7 on PinchBench (surpassing GLM-5 and MiniMax M2.7), ranks first across all three frontend aesthetics scenarios, and maintains strong generalist scores on Terminal-Bench Hard (46.8) and tau^2-Bench (93.9). Our model is publicly available at https://streamlake.com/product/kat-coder.
PDF01April 1, 2026