# Informe Técnico de IQuest-Coder-V1
IQuest-Coder-V1 Technical Report
March 17, 2026
Autores: Jian Yang, Wei Zhang, Shawn Guo, Zhengmao Ye, Lin Jing, Shark Liu, Yizhi Li, Jiajun Wu, Cening Liu, X. Ma, Yuyang Song, Siwei Wu, Yuwen Li, L. Liao, T. Zheng, Ziling Huang, Zelong Huang, Che Liu, Yan Xing, Renyuan Li, Qingsong Cai, Hanxu Yan, Siyue Wang, Shikai Li, Jason Klein Liu, An Huang, Yongsheng Kang, Jinxing Zhang, Chuan Hao, Haowen Wang, Weicheng Gu, Ran Tao, Mingjie Tang, Peihao Wu, Jianzhou Wang, Xianglong Liu, Weifeng Lv, Bryan Dai
cs.AI
Resumen
En este informe, presentamos la serie IQuest-Coder-V1 (7B/14B/40B/40B-Loop), una nueva familia de modelos de lenguaje extenso (LLM) para código. Superando las representaciones de código estáticas, proponemos el paradigma de entrenamiento multifase de flujo de código, que captura la evolución dinámica de la lógica del software a través de las distintas fases de la canalización. Nuestros modelos se desarrollan mediante una canalización evolutiva, comenzando con el pre-entrenamiento inicial que consiste en datos de hechos de código, repositorios y finalización. Posteriormente, implementamos una etapa de entrenamiento medio especializada que integra trayectorias de razonamiento y agentes en contexto de 32k, y a escala de repositorio en contexto de 128k, para forjar unos cimientos lógicos profundos. Los modelos se finalizan luego con un post-entrenamiento de capacidades de codificación especializadas, que se bifurca en dos caminos especializados: el camino de pensamiento (que utiliza RL impulsada por razonamiento) y el camino de instrucción (optimizado para asistencia general). IQuest-Coder-V1 logra un rendimiento de vanguardia entre los modelos competitivos en dimensiones críticas de la inteligencia de código: ingeniería de software agéntica, programación competitiva y uso complejo de herramientas. Para abordar las limitaciones de despliegue, la variante IQuest-Coder-V1-Loop introduce un mecanismo recurrente diseñado para optimizar la compensación entre la capacidad del modelo y su huella de despliegue, ofreciendo una ruta arquitectónicamente mejorada para el equilibrio entre eficacia y eficiencia. Creemos que la publicación de la serie IQuest-Coder-V1, que incluye la cadena completa de *checkpoints* de caja blanca, desde las bases de pre-entrenamiento hasta los modelos finales de pensamiento e instrucción, impulsará la investigación en inteligencia de código autónoma y sistemas agentes del mundo real.
English
In this report, we introduce the IQuest-Coder-V1 series-(7B/14B/40B/40B-Loop), a new family of code large language models (LLMs). Moving beyond static code representations, we propose the code-flow multi-stage training paradigm, which captures the dynamic evolution of software logic through different phases of the pipeline. Our models are developed through the evolutionary pipeline, starting with the initial pre-training consisting of code facts, repository, and completion data. Following that, we implement a specialized mid-training stage that integrates reasoning and agentic trajectories in 32k-context and repository-scale in 128k-context to forge deep logical foundations. The models are then finalized with post-training of specialized coding capabilities, which is bifurcated into two specialized paths: the thinking path (utilizing reasoning-driven RL) and the instruct path (optimized for general assistance). IQuest-Coder-V1 achieves state-of-the-art performance among competitive models across critical dimensions of code intelligence: agentic software engineering, competitive programming, and complex tool use. To address deployment constraints, the IQuest-Coder-V1-Loop variant introduces a recurrent mechanism designed to optimize the trade-off between model capacity and deployment footprint, offering an architecturally enhanced path for efficacy-efficiency trade-off. We believe the release of the IQuest-Coder-V1 series, including the complete white-box chain of checkpoints from pre-training bases to the final thinking and instruction models, will advance research in autonomous code intelligence and real-world agentic systems.