Mise à l'échelle de petits agents par des enchères stratégiques
Scaling Small Agents Through Strategy Auctions
February 2, 2026
papers.authors: Lisa Alazraki, William F. Shen, Yoram Bachrach, Akhil Mathur
cs.AI
papers.abstract
Les petits modèles de langage sont de plus en plus perçus comme une approche prometteuse et économique pour l'IA agentique, leurs partisans affirmant qu'ils sont suffisamment performants pour les flux de travail agentiques. Cependant, si les petits agents peuvent rivaliser avec les plus grands sur des tâches simples, on ignore encore comment leur performance évolue avec la complexité des tâches, quand les grands modèles deviennent nécessaires, et comment mieux exploiter les petits agents pour des charges de travail à long horizon. Dans ce travail, nous démontrons empiriquement que la performance des petits agents n'évolue pas avec la complexité des tâches dans les domaines de la recherche approfondie et du codage, et nous présentons SALE (Strategy Auctions for Workload Efficiency), un cadre agentique inspiré des plateformes de freelances. Dans SALE, les agents soumissionnent avec de brefs plans stratégiques, qui sont évalués par un mécanisme systématique coût-valeur et affinés via une mémoire d'enchères partagée, permettant un routage par tâche et une auto-amélioration continue sans entraîner un routeur distinct ni exécuter tous les modèles jusqu'à terme. Sur des tâches de recherche approfondie et de codage de complexité variable, SALE réduit la dépendance à l'agent le plus volumineux de 53%, diminue le coût global de 35%, et améliore constamment le pass@1 du plus grand agent avec seulement une surcharge négligeable au-delà de l'exécution de la trace finale. En revanche, les routeurs établis qui s'appuient sur des descriptions de tâches sont soit moins performants que le plus grand agent, soit ne réduisent pas les coûts – souvent les deux –, soulignant leur inadéquation aux flux de travail agentiques. Ces résultats suggèrent que si les petits agents peuvent être insuffisants pour les charges de travail complexes, ils peuvent être efficacement « augmentés » via une allocation coordonnée des tâches et une auto-amélioration en temps de test. Plus largement, ils militent pour une vision systémique de l'IA agentique où les gains de performance proviennent moins de modèles individuels toujours plus grands que de mécanismes de coordination inspirés des marchés, organisant des agents hétérogènes en écosystèmes efficaces et adaptatifs.
English
Small language models are increasingly viewed as a promising, cost-effective approach to agentic AI, with proponents claiming they are sufficiently capable for agentic workflows. However, while smaller agents can closely match larger ones on simple tasks, it remains unclear how their performance scales with task complexity, when large models become necessary, and how to better leverage small agents for long-horizon workloads. In this work, we empirically show that small agents' performance fails to scale with task complexity on deep search and coding tasks, and we introduce Strategy Auctions for Workload Efficiency (SALE), an agent framework inspired by freelancer marketplaces. In SALE, agents bid with short strategic plans, which are scored by a systematic cost-value mechanism and refined via a shared auction memory, enabling per-task routing and continual self-improvement without training a separate router or running all models to completion. Across deep search and coding tasks of varying complexity, SALE reduces reliance on the largest agent by 53%, lowers overall cost by 35%, and consistently improves upon the largest agent's pass@1 with only a negligible overhead beyond executing the final trace. In contrast, established routers that rely on task descriptions either underperform the largest agent or fail to reduce cost -- often both -- underscoring their poor fit for agentic workflows. These results suggest that while small agents may be insufficient for complex workloads, they can be effectively "scaled up" through coordinated task allocation and test-time self-improvement. More broadly, they motivate a systems-level view of agentic AI in which performance gains come less from ever-larger individual models and more from market-inspired coordination mechanisms that organize heterogeneous agents into efficient, adaptive ecosystems.