SWE-World: Entwicklung von Software-Engineering-Agenten in dockerfreien Umgebungen
SWE-World: Building Software Engineering Agents in Docker-Free Environments
February 3, 2026
papers.authors: Shuang Sun, Huatong Song, Lisheng Huang, Jinhao Jiang, Ran Le, Zhihao Lv, Zongchao Chen, Yiwen Hu, Wenyang Luo, Wayne Xin Zhao, Yang Song, Hongteng Xu, Tao Zhang, Ji-Rong Wen
cs.AI
papers.abstract
Jüngste Fortschritte bei großen Sprachmodellen (LLMs) haben es Softwareentwicklungs-Agenten ermöglicht, komplexe Codeänderungsaufgaben zu bewältigen. Die meisten bestehenden Ansätze verlassen sich auf Ausführungsfeedback aus containerisierten Umgebungen, die einen abhängigkeitskompletten Setup sowie die physische Ausführung von Programmen und Tests erfordern. Obwohl wirksam, ist dieses Paradigma ressourcenintensiv und schwierig zu warten, was das Agententraining erheblich erschwert und die Skalierbarkeit begrenzt. Wir schlagen SWE-World vor, ein Docker-freies Framework, das physische Ausführungsumgebungen durch ein gelerntes Surrogat für das Training und die Evaluation von Softwareentwicklungs-Agenten ersetzt. SWE-World nutzt LLM-basierte Modelle, die auf echten Agent-Umgebungs-Interaktionsdaten trainiert wurden, um Zwischenausführungsergebnisse und finales Testfeedback vorherzusagen, sodass Agenten lernen können, ohne mit physischen containerisierten Umgebungen zu interagieren. Dieses Design bewahrt die standardmäßige Agent-Umgebungs-Interaktionsschleife, während der Bedarf an kostspieligem Umgebungsaufbau und -wartung während der Agentenoptimierung und -evaluation entfällt. Da SWE-World zudem die finalen Evaluationsergebnisse von Kandidatentrajektorien ohne echte Einreichung simulieren kann, ermöglicht es die Auswahl der besten Lösung unter mehreren Testzeitversuchen und erleichtert so effektives Test-Time Scaling (TTS) in Softwareentwicklungsaufgaben. Experimente auf SWE-bench Verified zeigen, dass SWE-World Qwen2.5-Coder-32B von 6,2 % auf 52,0 % durch Docker-freies SFT, auf 55,0 % mit Docker-freiem RL und auf 68,2 % mit weiterem TTS steigert. Der Code ist verfügbar unter https://github.com/RUCAIBox/SWE-World.
English
Recent advances in large language models (LLMs) have enabled software engineering agents to tackle complex code modification tasks. Most existing approaches rely on execution feedback from containerized environments, which require dependency-complete setup and physical execution of programs and tests. While effective, this paradigm is resource-intensive and difficult to maintain, substantially complicating agent training and limiting scalability. We propose SWE-World, a Docker-free framework that replaces physical execution environments with a learned surrogate for training and evaluating software engineering agents. SWE-World leverages LLM-based models trained on real agent-environment interaction data to predict intermediate execution outcomes and final test feedback, enabling agents to learn without interacting with physical containerized environments. This design preserves the standard agent-environment interaction loop while eliminating the need for costly environment construction and maintenance during agent optimization and evaluation. Furthermore, because SWE-World can simulate the final evaluation outcomes of candidate trajectories without real submission, it enables selecting the best solution among multiple test-time attempts, thereby facilitating effective test-time scaling (TTS) in software engineering tasks. Experiments on SWE-bench Verified demonstrate that SWE-World raises Qwen2.5-Coder-32B from 6.2\% to 52.0\% via Docker-free SFT, 55.0\% with Docker-free RL, and 68.2\% with further TTS. The code is available at https://github.com/RUCAIBox/SWE-World