ChatPaper.aiChatPaper

# Rapporto Tecnico di IQuest-Coder-V1

IQuest-Coder-V1 Technical Report

March 17, 2026
Autori: Jian Yang, Wei Zhang, Shawn Guo, Zhengmao Ye, Lin Jing, Shark Liu, Yizhi Li, Jiajun Wu, Cening Liu, X. Ma, Yuyang Song, Siwei Wu, Yuwen Li, L. Liao, T. Zheng, Ziling Huang, Zelong Huang, Che Liu, Yan Xing, Renyuan Li, Qingsong Cai, Hanxu Yan, Siyue Wang, Shikai Li, Jason Klein Liu, An Huang, Yongsheng Kang, Jinxing Zhang, Chuan Hao, Haowen Wang, Weicheng Gu, Ran Tao, Mingjie Tang, Peihao Wu, Jianzhou Wang, Xianglong Liu, Weifeng Lv, Bryan Dai
cs.AI

Abstract

In questo rapporto presentiamo la serie IQuest-Coder-V1 (7B/14B/40B/40B-Loop), una nuova famiglia di grandi modelli linguistici per il codice. Andando oltre le rappresentazioni di codice statiche, proponiamo il paradigma di addestramento multi-stadio code-flow, che cattura l'evoluzione dinamica della logica software attraverso diverse fasi della pipeline. I nostri modelli sono sviluppati tramite una pipeline evolutiva, a partire dalla pre-training iniziale composto da dati di fatti di codice, repository e completamento. Successivamente, implementiamo una fase di mid-training specializzata che integra traiettorie di ragionamento e agentività in contesto a 32k e su scala repository in contesto a 128k per forgiare solide fondamenta logiche. I modelli vengono poi finalizzati con un post-training di capacità di codifica specializzate, suddiviso in due percorsi specialistici: il percorso thinking (che utilizza RL guidato dal ragionamento) e il percorso instruct (ottimizzato per l'assistenza generica). IQuest-Coder-V1 raggiunge prestazioni all'avanguardia tra i modelli competitivi nelle dimensioni critiche dell'intelligenza del codice: ingegneria del software agentiva, programmazione competitiva e uso complesso di strumenti. Per affrontare i vincoli di deployment, la variante IQuest-Coder-V1-Loop introduce un meccanismo ricorrente progettato per ottimizzare il compromesso tra capacità del modello e impronta computazionale, offrendo un percorso architetturalmente potenziato per il bilanciamento efficacia-efficienza. Riteniamo che il rilascio della serie IQuest-Coder-V1, inclusa la completa catena white-box dei checkpoint dalle basi di pre-training ai modelli finali thinking e instruction, avanzerà la ricerca nell'intelligenza autonoma del codice e nei sistemi agentivi del mondo reale.
English
In this report, we introduce the IQuest-Coder-V1 series-(7B/14B/40B/40B-Loop), a new family of code large language models (LLMs). Moving beyond static code representations, we propose the code-flow multi-stage training paradigm, which captures the dynamic evolution of software logic through different phases of the pipeline. Our models are developed through the evolutionary pipeline, starting with the initial pre-training consisting of code facts, repository, and completion data. Following that, we implement a specialized mid-training stage that integrates reasoning and agentic trajectories in 32k-context and repository-scale in 128k-context to forge deep logical foundations. The models are then finalized with post-training of specialized coding capabilities, which is bifurcated into two specialized paths: the thinking path (utilizing reasoning-driven RL) and the instruct path (optimized for general assistance). IQuest-Coder-V1 achieves state-of-the-art performance among competitive models across critical dimensions of code intelligence: agentic software engineering, competitive programming, and complex tool use. To address deployment constraints, the IQuest-Coder-V1-Loop variant introduces a recurrent mechanism designed to optimize the trade-off between model capacity and deployment footprint, offering an architecturally enhanced path for efficacy-efficiency trade-off. We believe the release of the IQuest-Coder-V1 series, including the complete white-box chain of checkpoints from pre-training bases to the final thinking and instruction models, will advance research in autonomous code intelligence and real-world agentic systems.
PDF12March 29, 2026