ChatPaper.aiChatPaper

IQuest-Coder-V1 技術報告書

IQuest-Coder-V1 Technical Report

March 17, 2026
著者: Jian Yang, Wei Zhang, Shawn Guo, Zhengmao Ye, Lin Jing, Shark Liu, Yizhi Li, Jiajun Wu, Cening Liu, X. Ma, Yuyang Song, Siwei Wu, Yuwen Li, L. Liao, T. Zheng, Ziling Huang, Zelong Huang, Che Liu, Yan Xing, Renyuan Li, Qingsong Cai, Hanxu Yan, Siyue Wang, Shikai Li, Jason Klein Liu, An Huang, Yongsheng Kang, Jinxing Zhang, Chuan Hao, Haowen Wang, Weicheng Gu, Ran Tao, Mingjie Tang, Peihao Wu, Jianzhou Wang, Xianglong Liu, Weifeng Lv, Bryan Dai
cs.AI

要旨

本報告では、コード大規模言語モデル(LLM)の新たなファミリーであるIQuest-Coder-V1シリーズ(7B/14B/40B/40B-Loop)を紹介する。静的なコード表現を超えて、パイプラインの異なる段階を通じてソフトウェアロジックの動的進化を捉える、コードフロー多段階学習パラダイムを提案する。我々のモデルは進化的パイプラインを通じて開発され、コードファクト、リポジトリ、および補完データからなる初期事前学習から開始する。その後、32kコンテキストでの推論軌道とエージェント軌道の統合、および128kコンテキストでのリポジトリ規模学習を含む専門的な中間学習段階を実施し、深い論理的基盤を構築する。モデルは最終的に、専門的なコーディング能力の事後学習で仕上げられる。これは、思考パス(推論駆動型強化学習を活用)と指示パス(一般的な支援に最適化)の二つの専門化された経路に分岐する。IQuest-Coder-V1は、エージェント的ソフトウェアエンジニアリング、競技プログラミング、複雑なツール使用というコード知能の重要な次元において、競合モデル中で最先端の性能を達成する。配備の制約に対処するため、IQuest-Coder-V1-Loopバリアントは、モデル能力と配備フットプリントのトレードオフを最適化するように設計されたリカレント機構を導入し、効果性と効率性のトレードオフに対する建築的に強化された経路を提供する。事前学習ベースから最終的な思考モデル及び指示モデルに至る完全なホワイトボックスチェックポイント連鎖を含むIQuest-Coder-V1シリーズの公開が、自律的なコード知能と実世界のエージェントシステムの研究を推進すると確信する。
English
In this report, we introduce the IQuest-Coder-V1 series-(7B/14B/40B/40B-Loop), a new family of code large language models (LLMs). Moving beyond static code representations, we propose the code-flow multi-stage training paradigm, which captures the dynamic evolution of software logic through different phases of the pipeline. Our models are developed through the evolutionary pipeline, starting with the initial pre-training consisting of code facts, repository, and completion data. Following that, we implement a specialized mid-training stage that integrates reasoning and agentic trajectories in 32k-context and repository-scale in 128k-context to forge deep logical foundations. The models are then finalized with post-training of specialized coding capabilities, which is bifurcated into two specialized paths: the thinking path (utilizing reasoning-driven RL) and the instruct path (optimized for general assistance). IQuest-Coder-V1 achieves state-of-the-art performance among competitive models across critical dimensions of code intelligence: agentic software engineering, competitive programming, and complex tool use. To address deployment constraints, the IQuest-Coder-V1-Loop variant introduces a recurrent mechanism designed to optimize the trade-off between model capacity and deployment footprint, offering an architecturally enhanced path for efficacy-efficiency trade-off. We believe the release of the IQuest-Coder-V1 series, including the complete white-box chain of checkpoints from pre-training bases to the final thinking and instruction models, will advance research in autonomous code intelligence and real-world agentic systems.
PDF01March 28, 2026