ChatPaper.aiChatPaper

Verso una Scienza del Ridimensionamento dei Sistemi Agente

Towards a Science of Scaling Agent Systems

December 9, 2025
Autori: Yubin Kim, Ken Gu, Chanwoo Park, Chunjong Park, Samuel Schmidgall, A. Ali Heydari, Yao Yan, Zhihan Zhang, Yuchen Zhuang, Mark Malhotra, Paul Pu Liang, Hae Won Park, Yuzhe Yang, Xuhai Xu, Yilun Du, Shwetak Patel, Tim Althoff, Daniel McDuff, Xin Liu
cs.AI

Abstract

Gli agenti, sistemi basati su modelli linguistici (LM) in grado di ragionare, pianificare e agire, stanno diventando il paradigma dominante per le applicazioni di IA nel mondo reale. Nonostante questa ampia adozione, i principi che ne determinano le prestazioni rimangono poco esplorati, costringendo i professionisti a fare affidamento su euristiche piuttosto che su scelte di progettazione basate su principi consolidati. Colmiamo questa lacuna derivando principi quantitativi di scalabilità per i sistemi agentivi. Valutiamo ciò attraverso quattro benchmark diversi: Finance-Agent, BrowseComp-Plus, PlanCraft e Workbench. Utilizzando cinque architetture canoniche (Singolo, Indipendente, Centralizzato, Decentralizzato, Ibrido) istanziate su tre famiglie di LLM, eseguiamo una valutazione controllata che copre 180 configurazioni con strumenti standardizzati e budget di token prefissati. Deriviamo un modello predittivo utilizzando metriche di coordinamento empiriche, tra cui efficienza, overhead, amplificazione degli errori e ridondanza, che raggiunge un R² convalidato incrociatamente di 0,513. Identifichiamo tre effetti dominanti: (1) un compromesso coordinamento-strumenti: con budget computazionali fissi, i task ad alto utilizzo di strumenti soffrono sproporzionatamente dell'overhead multi-agente. (2) una saturazione delle capacità: il coordinamento produce rendimenti decrescenti o negativi (beta=-0,408, p<0,001) una volta che i benchmark ad agente singolo superano circa il 45%. (3) un'amplificazione degli errori dipendente dalla topologia: gli agenti indipendenti amplificano gli errori di 17,2x attraverso una propagazione incontrollata, mentre il coordinamento centralizzato la contiene a 4,4x. Il coordinamento centralizzato migliora le prestazioni dell'80,9% su task parallelizzabili come il ragionamento finanziario, mentre il coordinamento decentralizzato eccelle nella navigazione web dinamica (+9,2% vs. +0,2%). Tuttavia, per task di ragionamento sequenziale, tutte le varianti multi-agente hanno degradato le prestazioni del 39-70%. Il framework predice la strategia di coordinamento ottimale per l'87% delle configurazioni di test, fornendo un principio predittivo per la scalabilità agentiva basato su proprietà misurabili del task.
English
Agents, language model (LM)-based systems that are capable of reasoning, planning, and acting are becoming the dominant paradigm for real-world AI applications. Despite this widespread adoption, the principles that determine their performance remain underexplored, leaving practitioners to rely on heuristics rather than principled design choices. We address this gap by deriving quantitative scaling principles for agent systems. We evaluate this across four diverse benchmarks: Finance-Agent, BrowseComp-Plus, PlanCraft, and Workbench. Using five canonical architectures (Single, Independent, Centralized, Decentralized, Hybrid) instantiated across three LLM families, we perform a controlled evaluation spanning 180 configurations with standardized tools and token budgets. We derive a predictive model using empirical coordination metrics, including efficiency, overhead, error amplification, and redundancy, that achieves cross-validated R^2=0.513. We identify three dominant effects: (1) a tool-coordination trade-off: under fixed computational budgets, tool-heavy tasks suffer disproportionately from multi-agent overhead. (2) a capability saturation: coordination yields diminishing or negative returns (beta=-0.408, p<0.001) once single-agent baselines exceed ~45%. (3) topology-dependent error amplification: independent agents amplify errors 17.2x through unchecked propagation, while centralized coordination contains this to 4.4x. Centralized coordination improves performance by 80.9% on parallelizable tasks like financial reasoning, while decentralized coordination excels on dynamic web navigation (+9.2% vs. +0.2%). Yet for sequential reasoning tasks, all multi-agent variants degraded performance by 39-70%. The framework predicts the optimal coordination strategy for 87% of held-out configurations, providing a predictive principle of agentic scaling based on measurable task properties.
PDF73December 13, 2025