ChatPaper.aiChatPaper

Vers une science de la mise à l'échelle des systèmes d'agents

Towards a Science of Scaling Agent Systems

December 9, 2025
papers.authors: Yubin Kim, Ken Gu, Chanwoo Park, Chunjong Park, Samuel Schmidgall, A. Ali Heydari, Yao Yan, Zhihan Zhang, Yuchen Zhuang, Mark Malhotra, Paul Pu Liang, Hae Won Park, Yuzhe Yang, Xuhai Xu, Yilun Du, Shwetak Patel, Tim Althoff, Daniel McDuff, Xin Liu
cs.AI

papers.abstract

Les agents, systèmes basés sur des modèles de langage (LM) capables de raisonner, de planifier et d'agir, deviennent le paradigme dominant pour les applications d'IA en conditions réelles. Malgré cette adoption généralisée, les principes déterminant leur performance restent peu explorés, contraignant les praticiens à s'appuyer sur des heuristiques plutôt que sur des choix de conception fondés. Nous comblons cette lacune en établissant des principes d'échelle quantitatifs pour les systèmes d'agents. Nous évaluons cela sur quatre benchmarks diversifiés : Finance-Agent, BrowseComp-Plus, PlanCraft et Workbench. En utilisant cinq architectures canoniques (Unique, Indépendante, Centralisée, Décentralisée, Hybride) instanciées sur trois familles de LLM, nous réalisons une évaluation contrôlée couvrant 180 configurations avec des outils et des budgets en tokens standardisés. Nous dérivons un modèle prédictif utilisant des métriques de coordination empiriques, incluant l'efficacité, la surcharge, l'amplification des erreurs et la redondance, qui atteint un R² validé croisé de 0,513. Nous identifions trois effets dominants : (1) un compromis outil-coordination : sous budgets computationnels fixes, les tâches intensives en outils pâtissent disproportionnément de la surcharge multi-agents. (2) une saturation des capacités : la coordination produit des rendements décroissants ou négatifs (bêta = -0,408, p < 0,001) une fois que les performances de base d'un agent unique dépassent ~45 %. (3) une amplification des erreurs dépendante de la topologie : les agents indépendants amplifient les erreurs d'un facteur 17,2 via une propagation non contrôlée, tandis que la coordination centralisée limite cela à un facteur 4,4. La coordination centralisée améliore les performances de 80,9 % sur des tâches parallélisables comme le raisonnement financier, tandis que la coordination décentralisée excelle sur la navigation web dynamique (+9,2 % contre +0,2 %). Cependant, pour les tâches de raisonnement séquentiel, toutes les variantes multi-agents ont dégradé les performances de 39 à 70 %. Le cadre prédit la stratégie de coordination optimale pour 87 % des configurations retenues, fournissant un principe prédictif de mise à l'échelle agentique basé sur des propriétés de tâche mesurables.
English
Agents, language model (LM)-based systems that are capable of reasoning, planning, and acting are becoming the dominant paradigm for real-world AI applications. Despite this widespread adoption, the principles that determine their performance remain underexplored, leaving practitioners to rely on heuristics rather than principled design choices. We address this gap by deriving quantitative scaling principles for agent systems. We evaluate this across four diverse benchmarks: Finance-Agent, BrowseComp-Plus, PlanCraft, and Workbench. Using five canonical architectures (Single, Independent, Centralized, Decentralized, Hybrid) instantiated across three LLM families, we perform a controlled evaluation spanning 180 configurations with standardized tools and token budgets. We derive a predictive model using empirical coordination metrics, including efficiency, overhead, error amplification, and redundancy, that achieves cross-validated R^2=0.513. We identify three dominant effects: (1) a tool-coordination trade-off: under fixed computational budgets, tool-heavy tasks suffer disproportionately from multi-agent overhead. (2) a capability saturation: coordination yields diminishing or negative returns (beta=-0.408, p<0.001) once single-agent baselines exceed ~45%. (3) topology-dependent error amplification: independent agents amplify errors 17.2x through unchecked propagation, while centralized coordination contains this to 4.4x. Centralized coordination improves performance by 80.9% on parallelizable tasks like financial reasoning, while decentralized coordination excels on dynamic web navigation (+9.2% vs. +0.2%). Yet for sequential reasoning tasks, all multi-agent variants degraded performance by 39-70%. The framework predicts the optimal coordination strategy for 87% of held-out configurations, providing a predictive principle of agentic scaling based on measurable task properties.
PDF73December 13, 2025