ChatPaper.aiChatPaper

Rapport Technique d'IQuest-Coder-V1

IQuest-Coder-V1 Technical Report

March 17, 2026
Auteurs: Jian Yang, Wei Zhang, Shawn Guo, Zhengmao Ye, Lin Jing, Shark Liu, Yizhi Li, Jiajun Wu, Cening Liu, X. Ma, Yuyang Song, Siwei Wu, Yuwen Li, L. Liao, T. Zheng, Ziling Huang, Zelong Huang, Che Liu, Yan Xing, Renyuan Li, Qingsong Cai, Hanxu Yan, Siyue Wang, Shikai Li, Jason Klein Liu, An Huang, Yongsheng Kang, Jinxing Zhang, Chuan Hao, Haowen Wang, Weicheng Gu, Ran Tao, Mingjie Tang, Peihao Wu, Jianzhou Wang, Xianglong Liu, Weifeng Lv, Bryan Dai
cs.AI

Résumé

Dans ce rapport, nous présentons la série IQuest-Coder-V1 (7B/14B/40B/40B-Loop), une nouvelle famille de grands modèles de langage (LLM) dédiés au code. Allant au-delà des représentations statiques du code, nous proposons le paradigme d'entraînement multi-étapes code-flow, qui capture l'évolution dynamique de la logique logicielle à travers les différentes phases du pipeline. Nos modèles sont développés via un pipeline évolutif, commençant par un pré-entraînement initial sur des données de faits de code, de référentiels et de complétion. Ensuite, nous mettons en œuvre une phase de mi-entraînement spécialisée qui intègre des trajectoires de raisonnement et agentiques dans un contexte de 32k tokens, et à l'échelle du référentiel dans un contexte de 128k tokens, pour forger des fondations logiques profondes. Les modèles sont finalisés par un post-entraînement axé sur des capacités de codage spécialisées, bifurquant en deux voies distinctes : la voie de la réflexion (utilisant un apprentissage par renforcement piloté par le raisonnement) et la voie d'assistance (optimisée pour l'aide générale). IQuest-Coder-V1 obtient des performances à l'état de l'art parmi les modèles concurrents sur les dimensions critiques de l'intelligence du code : l'ingénierie logicielle agentique, la programmation compétitive et l'utilisation d'outils complexes. Pour répondre aux contraintes de déploiement, la variante IQuest-Coder-V1-Loop introduit un mécanisme récurrent conçu pour optimiser le compromis entre la capacité du modèle et son empreinte opérationnelle, offrant une voie architecturale améliorée pour ce compromis efficacité-efficience. Nous estimons que la publication de la série IQuest-Coder-V1, incluant la chaîne complète et en boîte blanche des points de contrôle, des bases de pré-entraînement aux modèles finaux de réflexion et d'assistance, fera progresser la recherche dans l'intelligence du code autonome et les systèmes agentiques en conditions réelles.
English
In this report, we introduce the IQuest-Coder-V1 series-(7B/14B/40B/40B-Loop), a new family of code large language models (LLMs). Moving beyond static code representations, we propose the code-flow multi-stage training paradigm, which captures the dynamic evolution of software logic through different phases of the pipeline. Our models are developed through the evolutionary pipeline, starting with the initial pre-training consisting of code facts, repository, and completion data. Following that, we implement a specialized mid-training stage that integrates reasoning and agentic trajectories in 32k-context and repository-scale in 128k-context to forge deep logical foundations. The models are then finalized with post-training of specialized coding capabilities, which is bifurcated into two specialized paths: the thinking path (utilizing reasoning-driven RL) and the instruct path (optimized for general assistance). IQuest-Coder-V1 achieves state-of-the-art performance among competitive models across critical dimensions of code intelligence: agentic software engineering, competitive programming, and complex tool use. To address deployment constraints, the IQuest-Coder-V1-Loop variant introduces a recurrent mechanism designed to optimize the trade-off between model capacity and deployment footprint, offering an architecturally enhanced path for efficacy-efficiency trade-off. We believe the release of the IQuest-Coder-V1 series, including the complete white-box chain of checkpoints from pre-training bases to the final thinking and instruction models, will advance research in autonomous code intelligence and real-world agentic systems.
PDF01March 28, 2026