ChatPaper.aiChatPaper

Rapporto Tecnico di KAT-Coder-V2

KAT-Coder-V2 Technical Report

March 29, 2026
Autori: Fengxiang Li, Han Zhang, Haoyang Huang, Jinghui Wang, Jinhua Hao, Kun Yuan, Mengtong Li, Minglei Zhang, Pengcheng Xu, Wenhao Zhuang, Yizhen Shao, Zongxian Feng, Can Tang, Chao Wang, Chengxiao Tong, Fan Yang, Gang Xiong, Haixuan Gao, Han Gao, Hao Wang, Haochen Liu, Hongliang Sun, Jiabao Li, Jingwen Chang, Jun Du, Junyi Peng, Leizhen Cui, Meimei Jing, Mingqi Wu, Shangpeng Yan, Shaotong Qi, Suzhe Xu, Wenxuan Zhao, Xianda Sun, Xuan Xie, Yanbo Wang, Yao Xia, Yinghan Cui, Yingpeng Chen, Yong Wang, Yuze Shi, Zhiwei Shen, Ziyu Wang, Ming Sun, Lin Ye, Bin Chen
cs.AI

Abstract

Presentiamo KAT-Coder-V2, un modello di codifica agentico sviluppato dal team KwaiKAT di Kuaishou. KAT-Coder-V2 adotta un paradigma "Specializza-poi-Unifica" che scompone la codifica agentica in cinque domini di competenza specializzata - SWE, WebCoding, Terminal, WebSearch e Generale - ciascuno dei quali viene sottoposto a fine-tuning supervisionato e apprendimento per rinforzo in modo indipendente, per poi essere consolidato in un unico modello tramite distillazione on-policy. Abbiamo sviluppato KwaiEnv, un'infrastruttura modulare che supporta decine di migliaia di istanze sandbox concorrenti, e abbiamo scalato l'addestramento RL lungo tre dimensioni: complessità del compito, allineamento dell'intento e generalizzazione dell'impalcatura. Proponiamo inoltre MCLA per stabilizzare l'addestramento RL su modelli Mixture of Experts (MoE) e il Tree Training per eliminare il calcolo ridondante su traiettorie ad albero, con un accelerazione fino a 6.2x. KAT-Coder-V2 raggiunge il 79.6% su SWE-bench Verified (contro l'80.8% di Claude Opus), 88.7 su PinchBench (superando GLM-5 e MiniMax M2.7), si classifica primo in tutti e tre gli scenari di estetica del frontend e mantiene punteggi solidi da generalista su Terminal-Bench Hard (46.8) e tau^2-Bench (93.9). Il nostro modello è pubblicamente disponibile all'indirizzo https://streamlake.com/product/kat-coder.
English
We present KAT-Coder-V2, an agentic coding model developed by the KwaiKAT team at Kuaishou. KAT-Coder-V2 adopts a "Specialize-then-Unify" paradigm that decomposes agentic coding into five expert domains - SWE, WebCoding, Terminal, WebSearch, and General - each undergoing independent supervised fine-tuning and reinforcement learning, before being consolidated into a single model via on-policy distillation. We develop KwaiEnv, a modular infrastructure sustaining tens of thousands of concurrent sandbox instances, and scale RL training along task complexity, intent alignment, and scaffold generalization. We further propose MCLA for stabilizing MoE RL training and Tree Training for eliminating redundant computation over tree-structured trajectories with up to 6.2x speedup. KAT-Coder-V2 achieves 79.6% on SWE-bench Verified (vs. Claude Opus 4.6 at 80.8%), 88.7 on PinchBench (surpassing GLM-5 and MiniMax M2.7), ranks first across all three frontend aesthetics scenarios, and maintains strong generalist scores on Terminal-Bench Hard (46.8) and tau^2-Bench (93.9). Our model is publicly available at https://streamlake.com/product/kat-coder.
PDF22April 1, 2026