LLM-in-Sandbox suscita un'intelligenza agentica generale
LLM-in-Sandbox Elicits General Agentic Intelligence
January 22, 2026
Autori: Daixuan Cheng, Shaohan Huang, Yuxian Gu, Huatong Song, Guoxin Chen, Li Dong, Wayne Xin Zhao, Ji-Rong Wen, Furu Wei
cs.AI
Abstract
Introduciamo LLM-in-Sandbox, che consente ai LLM di esplorare all'interno di una sandbox di codice (ovvero un computer virtuale), per elicitare intelligenza generale in domini non di codice. Dimostriamo innanzitutto che LLM potenti, senza addestramento aggiuntivo, mostrano capacità di generalizzazione per sfruttare la sandbox di codice per compiti non di codice. Ad esempio, i LLM accedono spontaneamente a risorse esterne per acquisire nuove conoscenze, sfruttano il file system per gestire contesti lunghi ed eseguono script per soddisfare i requisiti di formattazione. Mostriamo inoltre che queste capacità agentiche possono essere potenziate tramite LLM-in-Sandbox Reinforcement Learning (LLM-in-Sandbox-RL), che utilizza solo dati non agentici per addestrare modelli all'esplorazione della sandbox. Gli esperimenti dimostrano che LLM-in-Sandbox, sia in contesti senza addestramento che post-addestramento, raggiunge una robusta generalizzazione che spazia dalla matematica alla fisica, alla chimica, alla biomedicina, alla comprensione di contesti lunghi e al seguire istruzioni. Infine, analizziamo l'efficienza di LLM-in-Sandbox da prospettive computazionali e di sistema, e lo rendiamo open-source come pacchetto Python per facilitare il deployment nel mondo reale.
English
We introduce LLM-in-Sandbox, enabling LLMs to explore within a code sandbox (i.e., a virtual computer), to elicit general intelligence in non-code domains. We first demonstrate that strong LLMs, without additional training, exhibit generalization capabilities to leverage the code sandbox for non-code tasks. For example, LLMs spontaneously access external resources to acquire new knowledge, leverage the file system to handle long contexts, and execute scripts to satisfy formatting requirements. We further show that these agentic capabilities can be enhanced through LLM-in-Sandbox Reinforcement Learning (LLM-in-Sandbox-RL), which uses only non-agentic data to train models for sandbox exploration. Experiments demonstrate that LLM-in-Sandbox, in both training-free and post-trained settings, achieves robust generalization spanning mathematics, physics, chemistry, biomedicine, long-context understanding, and instruction following. Finally, we analyze LLM-in-Sandbox's efficiency from computational and system perspectives, and open-source it as a Python package to facilitate real-world deployment.