ChatPaper.aiChatPaper

Самостоятельный поиск в процессе самоигры: Расширение границ возможностей агентов без участия человека

Search Self-play: Pushing the Frontier of Agent Capability without Supervision

October 21, 2025
Авторы: Hongliang Lu, Yuhang Wen, Pengyu Cheng, Ruijin Ding, Haotian Xu, Jiaqi Guo, Chutian Wang, Haonan Chen, Xiaoxi Jiang, Guanjun Jiang
cs.AI

Аннотация

Обучение с подкреплением с верифицируемыми вознаграждениями (RLVR) стало основной технологией для тренировки агентов на основе больших языковых моделей (LLM). Однако RLVR сильно зависит от тщательно составленных задач-запросов и соответствующих им эталонных ответов для обеспечения точных вознаграждений, что требует значительных человеческих усилий и препятствует масштабированию процессов RL, особенно в агентских сценариях. Хотя несколько недавних работ исследуют методы синтеза задач, сложность генерируемых агентских задач сложно контролировать, чтобы обеспечить эффективные преимущества для RL-тренировки. Для достижения агентского RLVR с более высокой масштабируемостью мы исследуем обучение в режиме самоигры для агентов углубленного поиска, в котором обучающаяся LLM использует многоходовые вызовы поисковой системы и действует одновременно как постановщик задач и решатель проблем. Постановщик задач стремится генерировать запросы для углубленного поиска с четко определенными эталонными ответами и возрастающей сложностью задач. Решатель проблем пытается обработать сгенерированные поисковые запросы и выдать корректные предсказания ответов. Чтобы гарантировать, что каждый сгенерированный поисковый запрос имеет точный эталонный ответ, мы собираем все результаты поиска из траектории постановщика в качестве внешних знаний, а затем применяем генерацию с дополнением retrieval-augmentation generation (RAG), чтобы проверить, можно ли на предложенный запрос правильно ответить при наличии всех необходимых поисковых документов. В этой игре с поисковой самоигрой (Search Self-Play, SSP) постановщик и решатель совместно развивают свои агентские способности через конкуренцию и кооперацию. На основании значительных экспериментальных результатов мы обнаружили, что SSP может существенно и равномерно улучшить производительность поисковых агентов на различных бенчмарках без какого-либо контроля, как в условиях обучения RL с нуля, так и в условиях непрерывного обучения. Код доступен по адресу https://github.com/Alibaba-Quark/SSP.
English
Reinforcement learning with verifiable rewards (RLVR) has become the mainstream technique for training LLM agents. However, RLVR highly depends on well-crafted task queries and corresponding ground-truth answers to provide accurate rewards, which requires massive human efforts and hinders the RL scaling processes, especially under agentic scenarios. Although a few recent works explore task synthesis methods, the difficulty of generated agentic tasks can hardly be controlled to provide effective RL training advantages. To achieve agentic RLVR with higher scalability, we explore self-play training for deep search agents, in which the learning LLM utilizes multi-turn search engine calling and acts simultaneously as both a task proposer and a problem solver. The task proposer aims to generate deep search queries with well-defined ground-truth answers and increasing task difficulty. The problem solver tries to handle the generated search queries and output the correct answer predictions. To ensure that each generated search query has accurate ground truth, we collect all the searching results from the proposer's trajectory as external knowledge, then conduct retrieval-augmentation generation (RAG) to test whether the proposed query can be correctly answered with all necessary search documents provided. In this search self-play (SSP) game, the proposer and the solver co-evolve their agent capabilities through both competition and cooperation. With substantial experimental results, we find that SSP can significantly improve search agents' performance uniformly on various benchmarks without any supervision under both from-scratch and continuous RL training setups. The code is at https://github.com/Alibaba-Quark/SSP.
PDF172December 2, 2025