ChatPaper.aiChatPaper

Масштабирование верификации во время вывода: саморазвивающиеся глубокие исследовательские агенты посредством рубрико-управляемой проверки на этапе тестирования

Inference-Time Scaling of Verification: Self-Evolving Deep Research Agents via Test-Time Rubric-Guided Verification

January 22, 2026
Авторы: Yuxuan Wan, Tianqing Fang, Zaitang Li, Yintong Huo, Wenxuan Wang, Haitao Mi, Dong Yu, Michael R. Lyu
cs.AI

Аннотация

Последние достижения в области глубоких исследовательских агентов (Deep Research Agents, DRA) трансформируют автоматизированное открытие знаний и решение задач. В то время как большинство существующих разработок сосредоточено на улучшении политик (policy) посредством пост-обучения, мы предлагаем альтернативную парадигму: саморазвитие способностей агента путем итеративной проверки выходных данных его модели политики, направляемое тщательно разработанными критериями (рубриками). Этот подход приводит к масштабированию верификации на этапе вывода (inference-time scaling), при котором агент самосовершенствуется, оценивая сгенерированные ответы для создания итеративной обратной связи и уточнений. Мы выводим критерии на основе автоматически построенной Таксономии Ошибок DRA, которая систематически классифицирует сбои агентов на пять основных категорий и тринадцать подкатегорий. Мы представляем DeepVerifier — верификатор вознаграждения по результатам на основе рубрик, который использует асимметрию верификации и превосходит базовые подходы «агент-как-судья» (vanilla agent-as-judge) и LLM-судью на 12–48% по F1-мере в мета-оценке. Для обеспечения практического саморазвития DeepVerifier интегрируется как модуль «подключи и работай» (plug-and-play) во время логического вывода на этапе тестирования (test-time inference). Верификатор генерирует детальную обратную связь на основе рубрик, которая передается агенту для итеративной самозагрузки (bootstrapping), уточняя ответы без дополнительного обучения. Такое масштабирование на этапе тестирования обеспечивает прирост точности на 8–11% на сложных подмножествах наборов данных GAIA и XBench-DeepResearch при использовании мощных проприетарных LLM. Наконец, для поддержки развития открытых моделей мы публикуем DeepVerifier-4K — курируемый набор данных для контролируемого тонкого обучения (SFT), содержащий 4646 высококачественных шагов агента, сфокусированных на верификации DRA. Эти примеры делают акцент на рефлексии и самокритике, позволяя открытым моделям развивать robustные возможности верификации.
English
Recent advances in Deep Research Agents (DRAs) are transforming automated knowledge discovery and problem-solving. While the majority of existing efforts focus on enhancing policy capabilities via post-training, we propose an alternative paradigm: self-evolving the agent's ability by iteratively verifying the policy model's outputs, guided by meticulously crafted rubrics. This approach gives rise to the inference-time scaling of verification, wherein an agent self-improves by evaluating its generated answers to produce iterative feedback and refinements. We derive the rubrics based on an automatically constructed DRA Failure Taxonomy, which systematically classifies agent failures into five major categories and thirteen sub-categories. We present DeepVerifier, a rubrics-based outcome reward verifier that leverages the asymmetry of verification and outperforms vanilla agent-as-judge and LLM judge baselines by 12%-48% in meta-evaluation F1 score. To enable practical self-evolution, DeepVerifier integrates as a plug-and-play module during test-time inference. The verifier produces detailed rubric-based feedback, which is fed back to the agent for iterative bootstrapping, refining responses without additional training. This test-time scaling delivers 8%-11% accuracy gains on challenging subsets of GAIA and XBench-DeepResearch when powered by capable closed-source LLMs. Finally, to support open-source advancement, we release DeepVerifier-4K, a curated supervised fine-tuning dataset of 4,646 high-quality agent steps focused on DRA verification. These examples emphasize reflection and self-critique, enabling open models to develop robust verification capabilities.
PDF162January 27, 2026