ChatPaper.aiChatPaper

Docker化環境からの大規模ターミナルエージェント軌跡生成

Large-Scale Terminal Agentic Trajectory Generation from Dockerized Environments

February 1, 2026
著者: Siwei Wu, Yizhi Li, Yuyang Song, Wei Zhang, Yang Wang, Riza Batista-Navarro, Xian Yang, Mingjie Tang, Bryan Dai, Jian Yang, Chenghua Lin
cs.AI

要旨

端末ベースタスクにおけるエージェンシックモデルの学習には、多様なドメインにわたる現実的な長期的相互作用を捉えた高品質な端末軌跡が不可欠である。しかし、大規模なデータ構築は、以下の2つの要件から依然として困難である。すなわち、各インスタンスが適切かつ多くの場合異なるDocker環境を必要とするため「実行可能性」が、また、異種混在のタスク出力が統一された標準的な検証を妨げるため「検証可能性」が課題となる。これらの課題に対処するため、本論文ではTerminalTrajを提案する。これは、(i)高品質なリポジトリをフィルタリングしてDocker化された実行環境を構築し、(ii)Dockerに合わせたタスクインスタンスを生成し、(iii)実行可能な検証コードを用いてエージェント軌跡を合成する、スケーラブルなパイプラインである。TerminalTrajを用いて、32KのDockerイメージを精選し、8つのドメインにわたって50,733件の検証済み端末軌跡を生成した。このデータでQwen2.5-Coderバックボーンを学習させたモデルは、TerminalBench (TB) において一貫した性能向上を達成し、TB 1.0では最大20%、TB 2.0では10%の向上をそれぞれのバックボーンに対して示した。特に、TerminalTraj-32Bは、100Bパラメータ未満のモデルの中で強力な性能を発揮し、TB 1.0で35.30%、TB 2.0で22.00%を達成し、改善されたテスト時スケーリング挙動を示した。すべてのコードとデータはhttps://github.com/Wusiwei0410/TerminalTrajで公開されている。
English
Training agentic models for terminal-based tasks critically depends on high-quality terminal trajectories that capture realistic long-horizon interactions across diverse domains. However, constructing such data at scale remains challenging due to two key requirements: \emph{Executability}, since each instance requires a suitable and often distinct Docker environment; and \emph{Verifiability}, because heterogeneous task outputs preclude unified, standardized verification. To address these challenges, we propose TerminalTraj, a scalable pipeline that (i) filters high-quality repositories to construct Dockerized execution environments, (ii) generates Docker-aligned task instances, and (iii) synthesizes agent trajectories with executable validation code. Using TerminalTraj, we curate 32K Docker images and generate 50,733 verified terminal trajectories across eight domains. Models trained on this data with the Qwen2.5-Coder backbone achieve consistent performance improvements on TerminalBench (TB), with gains of up to 20\% on TB~1.0 and 10\% on TB~2.0 over their respective backbones. Notably, TerminalTraj-32B achieves strong performance among models with fewer than 100B parameters, reaching 35.30\% on TB~1.0 and 22.00\% on TB~2.0, and demonstrates improved test-time scaling behavior. All code and data are available at https://github.com/Wusiwei0410/TerminalTraj.
PDF101February 12, 2026