IQuest-Coder-V1 Technischer Bericht
IQuest-Coder-V1 Technical Report
March 17, 2026
Autoren: Jian Yang, Wei Zhang, Shawn Guo, Zhengmao Ye, Lin Jing, Shark Liu, Yizhi Li, Jiajun Wu, Cening Liu, X. Ma, Yuyang Song, Siwei Wu, Yuwen Li, L. Liao, T. Zheng, Ziling Huang, Zelong Huang, Che Liu, Yan Xing, Renyuan Li, Qingsong Cai, Hanxu Yan, Siyue Wang, Shikai Li, Jason Klein Liu, An Huang, Yongsheng Kang, Jinxing Zhang, Chuan Hao, Haowen Wang, Weicheng Gu, Ran Tao, Mingjie Tang, Peihao Wu, Jianzhou Wang, Xianglong Liu, Weifeng Lv, Bryan Dai
cs.AI
Zusammenfassung
In diesem Bericht stellen wir die IQuest-Coder-V1-Serie (7B/14B/40B/40B-Loop) vor, eine neue Familie von Code-Großsprachmodellen (Large Language Models, LLMs). Über statische Coderepräsentationen hinausgehend, schlagen wir das Code-Flow-Mehrstufen-Trainingsparadigma vor, das die dynamische Evolution der Softwarelogik durch verschiedene Phasen der Pipeline erfasst. Unsere Modelle werden durch die evolutionäre Pipeline entwickelt, beginnend mit dem anfänglichen Vor-Training, das Code-Fakten, Repository- und Completion-Daten umfasst. Darauf folgt eine spezialisierte Mittel-Trainingsphase, die reasoning- und agentische Trajektorien im 32k-Kontext und Repository-Maßstab im 128k-Kontext integriert, um tiefe logische Grundlagen zu schmieden. Die Modelle werden anschließend durch ein Nach-Training spezialisierter Coding-Fähigkeiten finalisiert, das in zwei spezialisierte Pfade aufgeteilt wird: den Denkpfad (unter Nutzung von Reasoning-gesteuertem Reinforcement Learning) und den Instruktionspfad (optimiert für allgemeine Assistenz). IQuest-Coder-V1 erzielt state-of-the-art Leistungen unter wettbewerbsfähigen Modellen in kritischen Dimensionen der Code-Intelligenz: agentische Softwareentwicklung, kompetitive Programmierung und komplexer Werkzeugeinsatz. Um Bereitstellungsbeschränkungen zu adressieren, führt die Variante IQuest-Coder-V1-Loop einen rekurrenten Mechanismus ein, der den Kompromiss zwischen Modellkapazität und Bereitstellungsfootprint optimiert und einen architektonisch verbesserten Pfad für den Effizienz-Wirksamkeits-Kompromiss bietet. Wir sind überzeugt, dass die Veröffentlichung der IQuest-Coder-V1-Serie, einschließlich der vollständigen White-Box-Kette von Checkpoints von den Vor-Trainings-Basismodellen bis zu den finalen Denk- und Instruktionsmodellen, die Forschung in autonomer Code-Intelligenz und realen agentischen Systemen voranbringen wird.
English
In this report, we introduce the IQuest-Coder-V1 series-(7B/14B/40B/40B-Loop), a new family of code large language models (LLMs). Moving beyond static code representations, we propose the code-flow multi-stage training paradigm, which captures the dynamic evolution of software logic through different phases of the pipeline. Our models are developed through the evolutionary pipeline, starting with the initial pre-training consisting of code facts, repository, and completion data. Following that, we implement a specialized mid-training stage that integrates reasoning and agentic trajectories in 32k-context and repository-scale in 128k-context to forge deep logical foundations. The models are then finalized with post-training of specialized coding capabilities, which is bifurcated into two specialized paths: the thinking path (utilizing reasoning-driven RL) and the instruct path (optimized for general assistance). IQuest-Coder-V1 achieves state-of-the-art performance among competitive models across critical dimensions of code intelligence: agentic software engineering, competitive programming, and complex tool use. To address deployment constraints, the IQuest-Coder-V1-Loop variant introduces a recurrent mechanism designed to optimize the trade-off between model capacity and deployment footprint, offering an architecturally enhanced path for efficacy-efficiency trade-off. We believe the release of the IQuest-Coder-V1 series, including the complete white-box chain of checkpoints from pre-training bases to the final thinking and instruction models, will advance research in autonomous code intelligence and real-world agentic systems.