Informe Técnico de KAT-Coder-V2
KAT-Coder-V2 Technical Report
March 29, 2026
Autores: Fengxiang Li, Han Zhang, Haoyang Huang, Jinghui Wang, Jinhua Hao, Kun Yuan, Mengtong Li, Minglei Zhang, Pengcheng Xu, Wenhao Zhuang, Yizhen Shao, Zongxian Feng, Can Tang, Chao Wang, Chengxiao Tong, Fan Yang, Gang Xiong, Haixuan Gao, Han Gao, Hao Wang, Haochen Liu, Hongliang Sun, Jiabao Li, Jingwen Chang, Jun Du, Junyi Peng, Leizhen Cui, Meimei Jing, Mingqi Wu, Shangpeng Yan, Shaotong Qi, Suzhe Xu, Wenxuan Zhao, Xianda Sun, Xuan Xie, Yanbo Wang, Yao Xia, Yinghan Cui, Yingpeng Chen, Yong Wang, Yuze Shi, Zhiwei Shen, Ziyu Wang, Ming Sun, Lin Ye, Bin Chen
cs.AI
Resumen
Presentamos KAT-Coder-V2, un modelo de codificación agéntico desarrollado por el equipo KwaiKAT de Kuaishou. KAT-Coder-V2 adopta un paradigma de "Especializar-y-Luego-Unificar" que descompone la codificación agéntica en cinco dominios expertos - SWE, WebCoding, Terminal, WebSearch y General - cada uno sometido a ajuste fino supervisado y aprendizaje por refuerzo de forma independiente, antes de ser consolidado en un único modelo mediante destilación *on-policy*. Desarrollamos KwaiEnv, una infraestructura modular que sostiene decenas de miles de instancias de entorno de pruebas simultáneas, y escalamos el entrenamiento por refuerzo en función de la complejidad de la tarea, la alineación de intenciones y la generalización de andamiajes. Además, proponemos MCLA para estabilizar el entrenamiento RL de MoE y Tree Training para eliminar el cómputo redundante en trayectorias con estructura de árbol, logrando una aceleración de hasta 6.2x. KAT-Coder-V2 alcanza un 79.6% en SWE-bench Verified (frente al 80.8% de Claude Opus 4.6), 88.7 en PinchBench (superando a GLM-5 y MiniMax M2.7), ocupa el primer puesto en los tres escenarios de estética frontend, y mantiene puntuaciones sólidas como generalista en Terminal-Bench Hard (46.8) y tau²-Bench (93.9). Nuestro modelo está disponible públicamente en https://streamlake.com/product/kat-coder.
English
We present KAT-Coder-V2, an agentic coding model developed by the KwaiKAT team at Kuaishou. KAT-Coder-V2 adopts a "Specialize-then-Unify" paradigm that decomposes agentic coding into five expert domains - SWE, WebCoding, Terminal, WebSearch, and General - each undergoing independent supervised fine-tuning and reinforcement learning, before being consolidated into a single model via on-policy distillation. We develop KwaiEnv, a modular infrastructure sustaining tens of thousands of concurrent sandbox instances, and scale RL training along task complexity, intent alignment, and scaffold generalization. We further propose MCLA for stabilizing MoE RL training and Tree Training for eliminating redundant computation over tree-structured trajectories with up to 6.2x speedup. KAT-Coder-V2 achieves 79.6% on SWE-bench Verified (vs. Claude Opus 4.6 at 80.8%), 88.7 on PinchBench (surpassing GLM-5 and MiniMax M2.7), ranks first across all three frontend aesthetics scenarios, and maintains strong generalist scores on Terminal-Bench Hard (46.8) and tau^2-Bench (93.9). Our model is publicly available at https://streamlake.com/product/kat-coder.