ChatPaper.aiChatPaper

Nex-N1: Agentische Modelle trainiert in einem einheitlichen Ökosystem für die Konstruktion großmaßstäblicher Umgebungen

Nex-N1: Agentic Models Trained via a Unified Ecosystem for Large-Scale Environment Construction

December 4, 2025
papers.authors: Nex-AGI Team, Yuxuan Cai, Lu Chen, Qiaoling Chen, Yuyang Ding, Liwen Fan, Wenjie Fu, Yufei Gao, Honglin Guo, Pinxue Guo, Zhenhua Han, Zhengfu He, Hanglei Hu, Kai Hu, Shengjia Hua, Tianyu Huai, Baodai Huang, Li Ji, Zhen Jiang, Zhikai Lei, Bufan Li, Jiahang Lin, Lizhi Lin, Jinxiu Liu, Shichun Liu, Ziming Liu, Yuchen Ni, Pengfang Qian, Yujiong Shen, Qingyun Shi, Wentao Shu, Peng Sun, Yiran Suo, Tian Tang, Boyu Tian, Guoteng Wang, Junzhe Wang, Peixin Wang, Zhiheng Xi, Hang Yan, Jie Yang, Zhixiong Yang, Tianchu Yao, Guangze Ye, Qianxi Yu, Shuo Zhang, Xinyue Zhang, Yiqi Zhang, Jiarong Zhao, Miao Zheng, Rui Zheng, Enyu Zhou, Jiazheng Zhou, Maosen Zhou, Yuhao Zhou, Tao Gui, Yining Zheng, Xinchi Chen, Jie Zhou, Siyuan Feng, Qin Chen, Liang He, Qi Zhang, Xuanjing Huang, Xipeng Qiu
cs.AI

papers.abstract

Die Entwicklung großer Sprachmodelle (LLMs) von passiven Respondern zu autonomen Agenten erfordert einen grundlegenden Wandel der Lernparadigmen – von statischer Imitation hin zu anreizgesteuertem Entscheidungsverhalten. Dieser Übergang wird jedoch erheblich durch den Mangel an skalierbarer Infrastruktur behindert, die in der Lage ist, hochwertige Interaktionssignale für effektives Policy-Learning zu erzeugen. Um dies zu lösen, stellen wir eine umfassende Methode vor, die darauf ausgelegt ist, die Diversität und Komplexität interaktiver Umgebungen systematisch zu skalieren. Unsere Methode realisiert diese Skalierung durch die Adressierung dreier orthogonaler Dimensionen: (1) Komplexität: NexAU, ein flexibles Agenten-Framework, das den Aufbau komplexer Agentenhierarchien über einfache Konfigurationen unterstützt; (2) Diversität: NexA4A generiert automatisch diverse Agentenhierarchien aus natürlicher Sprache, um unendliche Domänen abzudecken; und (3) Treue: NexGAP überbrückt die Simulations-Reality-Lücke durch die Integration dynamischer Real-World-Umgebungen zur Synthese geerdeter Trajektorien. Wir trainieren Nex-N1 auf den durch unsere Infrastruktur geschaffenen diversen und komplexen interaktiven Umgebungen. Empirische Ergebnisse auf Benchmarks wie SWE-bench und tau2 zeigen, dass Nex-N1 durchgängig state-of-the-art Open-Source-Modelle übertrifft und bei komplexen agentenbasierten Aufgaben wettbewerbsfähige Leistung gegenüber führenden proprietären Modellen erzielt. Wir veröffentlichen das Nex-Ökosystem und die Modellgewichte als Open Source, um die weitere Forschung zu fördern.
English
The evolution of Large Language Models (LLMs) from passive responders to autonomous agents necessitates a fundamental shift in learning paradigms -- from static imitation to incentive-driven decision making. However, this transition is significantly impeded by the lack of scalable infrastructure capable of constructing high-quality interaction signals for effective policy learning. To address this, we introduce a comprehensive method designed to systematically scale the diversity and complexity of interactive environments. Our method realizes this scaling by addressing three orthogonal dimensions: (1) Complexity: NexAU, a flexible agent framework that supports building complex agent hierarchies via simple configurations; (2) Diversity: NexA4A automatically generates diverse agent hierarchies from natural language to cover infinite domains; and (3) Fidelity: NexGAP bridges the simulation-reality gap by integrating dynamic real-world environment for grounded trajectories synthesis. We train Nex-N1 upon the diverse and complex interactive environments established by our infrastructure. Empirical results on benchmarks such as SWE-bench and tau2 demonstrate that Nex-N1 consistently outperforms SOTA open-source models and achieves competitive performance against frontier proprietary models on complex agentic tasks. We open-source the Nex ecosystem and model weights to facilitate further research.
PDF571December 6, 2025