ChatPaper.aiChatPaper

Nex-N1: Agente modellen getraind via een uniform ecosysteem voor grootschalige omgevingsconstructie

Nex-N1: Agentic Models Trained via a Unified Ecosystem for Large-Scale Environment Construction

December 4, 2025
Auteurs: Nex-AGI Team, Yuxuan Cai, Lu Chen, Qiaoling Chen, Yuyang Ding, Liwen Fan, Wenjie Fu, Yufei Gao, Honglin Guo, Pinxue Guo, Zhenhua Han, Zhengfu He, Hanglei Hu, Kai Hu, Shengjia Hua, Tianyu Huai, Baodai Huang, Li Ji, Zhen Jiang, Zhikai Lei, Bufan Li, Jiahang Lin, Lizhi Lin, Jinxiu Liu, Shichun Liu, Ziming Liu, Yuchen Ni, Pengfang Qian, Yujiong Shen, Qingyun Shi, Wentao Shu, Peng Sun, Yiran Suo, Tian Tang, Boyu Tian, Guoteng Wang, Junzhe Wang, Peixin Wang, Zhiheng Xi, Hang Yan, Jie Yang, Zhixiong Yang, Tianchu Yao, Guangze Ye, Qianxi Yu, Shuo Zhang, Xinyue Zhang, Yiqi Zhang, Jiarong Zhao, Miao Zheng, Rui Zheng, Enyu Zhou, Jiazheng Zhou, Maosen Zhou, Yuhao Zhou, Tao Gui, Yining Zheng, Xinchi Chen, Jie Zhou, Siyuan Feng, Qin Chen, Liang He, Qi Zhang, Xuanjing Huang, Xipeng Qiu
cs.AI

Samenvatting

De evolutie van Large Language Models (LLM's) van passieve respondenten naar autonome agents vereist een fundamentele verschuiving in leerparadigma's – van statische imitatie naar incentive-gestuurd besluitvorming. Deze overgang wordt echter aanzienlijk belemmerd door het gebrek aan schaalbare infrastructuur die in staat is hoogwaardige interactiesignalen te construeren voor effectief beleidsleren. Om dit aan te pakken, introduceren we een uitgebreide methode die is ontworpen om de diversiteit en complexiteit van interactieve omgevingen systematisch op te schalen. Onze methode realiseert deze schaalvergroting door drie orthogonale dimensies aan te pakken: (1) Complexiteit: NexAU, een flexibel agentframework dat de bouw van complexe agenthiërarchieën ondersteunt via eenvoudige configuraties; (2) Diversiteit: NexA4A genereert automatisch diverse agenthiërarchieën vanuit natuurlijke taal om oneindige domeinen te bestrijken; en (3) Fideliteit: NexGAP overbrugt de kloof tussen simulatie en realiteit door dynamische, real-world omgevingen te integreren voor de synthese van gegronde trajecten. We trainen Nex-N1 op de diverse en complexe interactieve omgevingen die door onze infrastructuur zijn gecreëerd. Empirische resultaten op benchmarks zoals SWE-bench en tau2 tonen aan dat Nex-N1 consistent superieure prestaties levert ten opzichte van state-of-the-art open-source modellen en competitieve prestaties bereikt ten opzichte van toonaangevende propriëtaire modellen bij complexe agenttaken. We maken het Nex-ecosysteem en de modelgewichten open source om verder onderzoek te vergemakkelijken.
English
The evolution of Large Language Models (LLMs) from passive responders to autonomous agents necessitates a fundamental shift in learning paradigms -- from static imitation to incentive-driven decision making. However, this transition is significantly impeded by the lack of scalable infrastructure capable of constructing high-quality interaction signals for effective policy learning. To address this, we introduce a comprehensive method designed to systematically scale the diversity and complexity of interactive environments. Our method realizes this scaling by addressing three orthogonal dimensions: (1) Complexity: NexAU, a flexible agent framework that supports building complex agent hierarchies via simple configurations; (2) Diversity: NexA4A automatically generates diverse agent hierarchies from natural language to cover infinite domains; and (3) Fidelity: NexGAP bridges the simulation-reality gap by integrating dynamic real-world environment for grounded trajectories synthesis. We train Nex-N1 upon the diverse and complex interactive environments established by our infrastructure. Empirical results on benchmarks such as SWE-bench and tau2 demonstrate that Nex-N1 consistently outperforms SOTA open-source models and achieves competitive performance against frontier proprietary models on complex agentic tasks. We open-source the Nex ecosystem and model weights to facilitate further research.
PDF743December 21, 2025