ChatPaper.aiChatPaper

LIMI : Moins, c'est mieux pour l'agence

LIMI: Less is More for Agency

September 22, 2025
papers.authors: Yang Xiao, Mohan Jiang, Jie Sun, Keyu Li, Jifan Lin, Yumin Zhuang, Ji Zeng, Shijie Xia, Qishuo Hua, Xuefeng Li, Xiaojie Cai, Tongyu Wang, Yue Zhang, Liming Liu, Xia Wu, Jinlong Hou, Yuan Cheng, Wenjie Li, Xiang Wang, Dequan Wang, Pengfei Liu
cs.AI

papers.abstract

Nous définissons l'Agence comme la capacité émergente des systèmes d'IA à fonctionner comme des agents autonomes, découvrant activement des problèmes, formulant des hypothèses et exécutant des solutions grâce à un engagement autodirigé avec des environnements et des outils. Cette capacité fondamentale marque l'aube de l'Âge de l'Agence IA, impulsée par un changement critique dans l'industrie : le besoin urgent de systèmes d'IA qui ne se contentent pas de penser, mais qui travaillent. Alors que l'IA actuelle excelle dans le raisonnement et la génération de réponses, les industries réclament des agents autonomes capables d'exécuter des tâches, d'utiliser des outils et de produire des résultats concrets. À mesure que l'intelligence agentique devient la caractéristique déterminante qui distingue les systèmes cognitifs des travailleurs productifs, cultiver efficacement l'autonomie des machines devient primordial. Les approches actuelles supposent que davantage de données engendre une meilleure agence, suivant les lois traditionnelles de mise à l'échelle issues du modélisation du langage. Nous remettons fondamentalement en cause ce paradigme. LIMI (Less Is More for Intelligent Agency) démontre que l'agence suit des principes de développement radicalement différents. Grâce à un focus stratégique sur le développement collaboratif de logiciels et les workflows de recherche scientifique, nous montrons qu'une intelligence agentique sophistiquée peut émerger à partir de démonstrations minimales mais stratégiquement sélectionnées de comportement autonome. En utilisant seulement 78 échantillons d'entraînement soigneusement conçus, LIMI atteint 73,5 % sur des benchmarks complets d'agence, surpassant de manière spectaculaire les modèles de pointe : Kimi-K2-Instruct (24,1 %), DeepSeek-V3.1 (11,9 %), Qwen3-235B-A22B-Instruct (27,5 %) et GLM-4.5 (45,1 %). Plus frappant encore, LIMI démontre une amélioration de 53,7 % par rapport aux modèles entraînés sur 10 000 échantillons, atteignant une intelligence agentique supérieure avec 128 fois moins d'échantillons. Nos résultats établissent le Principe d'Efficacité de l'Agence : l'autonomie des machines émerge non pas de l'abondance des données, mais de la curation stratégique de démonstrations agentiques de haute qualité.
English
We define Agency as the emergent capacity of AI systems to function as autonomous agents actively discovering problems, formulating hypotheses, and executing solutions through self-directed engagement with environments and tools. This fundamental capability marks the dawn of the Age of AI Agency, driven by a critical industry shift: the urgent need for AI systems that don't just think, but work. While current AI excels at reasoning and generating responses, industries demand autonomous agents that can execute tasks, operate tools, and drive real-world outcomes. As agentic intelligence becomes the defining characteristic separating cognitive systems from productive workers, efficiently cultivating machine autonomy becomes paramount. Current approaches assume that more data yields better agency, following traditional scaling laws from language modeling. We fundamentally challenge this paradigm. LIMI (Less Is More for Intelligent Agency) demonstrates that agency follows radically different development principles. Through strategic focus on collaborative software development and scientific research workflows, we show that sophisticated agentic intelligence can emerge from minimal but strategically curated demonstrations of autonomous behavior. Using only 78 carefully designed training samples, LIMI achieves 73.5% on comprehensive agency benchmarks, dramatically outperforming state-of-the-art models: Kimi-K2-Instruct (24.1%), DeepSeek-V3.1 (11.9%), Qwen3-235B-A22B-Instruct (27.5%), and GLM-4.5 (45.1%). Most strikingly, LIMI demonstrates 53.7% improvement over models trained on 10,000 samples-achieving superior agentic intelligence with 128 times fewer samples. Our findings establish the Agency Efficiency Principle: machine autonomy emerges not from data abundance but from strategic curation of high-quality agentic demonstrations.
PDF944September 23, 2025