ChatPaper.aiChatPaper

Nex-N1: Modelos Agénticos Entrenados mediante un Ecosistema Unificado para la Construcción de Entornos a Gran Escala

Nex-N1: Agentic Models Trained via a Unified Ecosystem for Large-Scale Environment Construction

December 4, 2025
Autores: Nex-AGI Team, Yuxuan Cai, Lu Chen, Qiaoling Chen, Yuyang Ding, Liwen Fan, Wenjie Fu, Yufei Gao, Honglin Guo, Pinxue Guo, Zhenhua Han, Zhengfu He, Hanglei Hu, Kai Hu, Shengjia Hua, Tianyu Huai, Baodai Huang, Li Ji, Zhen Jiang, Zhikai Lei, Bufan Li, Jiahang Lin, Lizhi Lin, Jinxiu Liu, Shichun Liu, Ziming Liu, Yuchen Ni, Pengfang Qian, Yujiong Shen, Qingyun Shi, Wentao Shu, Peng Sun, Yiran Suo, Tian Tang, Boyu Tian, Guoteng Wang, Junzhe Wang, Peixin Wang, Zhiheng Xi, Hang Yan, Jie Yang, Zhixiong Yang, Tianchu Yao, Guangze Ye, Qianxi Yu, Shuo Zhang, Xinyue Zhang, Yiqi Zhang, Jiarong Zhao, Miao Zheng, Rui Zheng, Enyu Zhou, Jiazheng Zhou, Maosen Zhou, Yuhao Zhou, Tao Gui, Yining Zheng, Xinchi Chen, Jie Zhou, Siyuan Feng, Qin Chen, Liang He, Qi Zhang, Xuanjing Huang, Xipeng Qiu
cs.AI

Resumen

La evolución de los Modelos de Lenguaje a Gran Escala (LLMs) de respondedores pasivos a agentes autónomos exige un cambio fundamental en los paradigmas de aprendizaje: de la imitación estática a la toma de decisiones impulsada por incentivos. Sin embargo, esta transición se ve significativamente obstaculizada por la falta de infraestructuras escalables capaces de construir señales de interacción de alta calidad para un aprendizaje de políticas efectivo. Para abordar este problema, presentamos un método integral diseñado para escalar sistemáticamente la diversidad y complejidad de los entornos interactivos. Nuestro método logra este escalado abordando tres dimensiones ortogonales: (1) Complejidad: NexAU, un marco de agente flexible que permite construir jerarquías de agentes complejas mediante configuraciones simples; (2) Diversidad: NexA4A genera automáticamente jerarquías de agentes diversas a partir de lenguaje natural para cubrir dominios infinitos; y (3) Fidelidad: NexGAP salva la brecha simulación-realidad integrando entornos dinámicos del mundo real para la síntesis de trayectorias fundamentadas. Entrenamos a Nex-N1 sobre los entornos interactivos diversos y complejos establecidos por nuestra infraestructura. Los resultados empíricos en benchmarks como SWE-bench y tau2 demuestran que Nex-N1 supera consistentemente a los modelos de código abierto más avanzados (SOTA) y logra un rendimiento competitivo frente a los modelos propietarios de vanguardia en tareas agentivas complejas. Liberamos el ecosistema Nex y los pesos del modelo como código abierto para facilitar futuras investigaciones.
English
The evolution of Large Language Models (LLMs) from passive responders to autonomous agents necessitates a fundamental shift in learning paradigms -- from static imitation to incentive-driven decision making. However, this transition is significantly impeded by the lack of scalable infrastructure capable of constructing high-quality interaction signals for effective policy learning. To address this, we introduce a comprehensive method designed to systematically scale the diversity and complexity of interactive environments. Our method realizes this scaling by addressing three orthogonal dimensions: (1) Complexity: NexAU, a flexible agent framework that supports building complex agent hierarchies via simple configurations; (2) Diversity: NexA4A automatically generates diverse agent hierarchies from natural language to cover infinite domains; and (3) Fidelity: NexGAP bridges the simulation-reality gap by integrating dynamic real-world environment for grounded trajectories synthesis. We train Nex-N1 upon the diverse and complex interactive environments established by our infrastructure. Empirical results on benchmarks such as SWE-bench and tau2 demonstrate that Nex-N1 consistently outperforms SOTA open-source models and achieves competitive performance against frontier proprietary models on complex agentic tasks. We open-source the Nex ecosystem and model weights to facilitate further research.
PDF571December 6, 2025