ProRL 에이전트: 다중 턴 LLM 에이전트 강화학습 훈련을 위한 롤아웃 서비스
ProRL Agent: Rollout-as-a-Service for RL Training of Multi-Turn LLM Agents
March 19, 2026
저자: Hao Zhang, Mingjie Liu, Shaokun Zhang, Songyang Han, Jian Hu, Zhenghui Jin, Yuchi Zhang, Shizhe Diao, Ximing Lu, Binfeng Xu, Zhiding Yu, Jan Kautz, Yi Dong
cs.AI
초록
다중 턴 LLM 에이전트는 복잡한 상호작용 작업 해결에 점점 더 중요해지고 있으며, 강화학습(RL)은 장기적 행동을 개선하는 핵심 요소입니다. 그러나 RL 훈련은 대량의 샌드박스 롤아웃 트레이젝토리 생성을 필요로 하며, 기존 인프라는 종종 롤아웃 오케스트레이션과 훈련 루프를 결합하여 시스템의 이식 및 유지보수를 어렵게 만듭니다. 롤아웃-애즈-어-서비스 철학 아래, 우리는 API 서비스를 통해 완전한 에이전트 롤아웃 라이프사이클을 제공하는 확장 가능한 인프라인 ProRL 에이전트를 제시합니다. ProRL 에이전트는 또한 루트리스 HPC 환경에서 다양한 에이전트 작업을 지원하는 표준화되고 확장 가능한 샌드박스 환경을 제공합니다. 우리는 소프트웨어 공학, 수학, STEM, 코딩 작업에 대한 RL 훈련을 통해 ProRL 에이전트를 검증합니다. ProRL 에이전트는 오픈소스이며 NVIDIA NeMo Gym의 일부로 통합되었습니다.
English
Multi-turn LLM agents are increasingly important for solving complex, interactive tasks, and reinforcement learning (RL) is a key ingredient for improving their long-horizon behavior. However, RL training requires generating large numbers of sandboxed rollout trajectories, and existing infrastructures often couple rollout orchestration with the training loop, making systems hard to migrate and maintain. Under the rollout-as-a-service philosophy, we present ProRL Agent , a scalable infrastructure that serves the full agentic rollout lifecycle through an API service. ProRL Agent also provides standardized and extensible sandbox environments that support diverse agentic tasks in rootless HPC settings. We validate ProRL Agent through RL training on software engineering, math, STEM, and coding tasks. ProRL Agent is open-sourced and integrated as part of NVIDIA NeMo Gym.