AgentTTS : Modèle de langage de grande taille pour une stratégie de mise à l'échelle optimale en termes de calcul lors des tests dans des tâches complexes
AgentTTS: Large Language Model Agent for Test-time Compute-optimal Scaling Strategy in Complex Tasks
July 26, 2025
papers.authors: Fali Wang, Hui Liu, Zhenwei Dai, Jingying Zeng, Zhiwei Zhang, Zongyu Wu, Chen Luo, Zhen Li, Xianfeng Tang, Qi He, Suhang Wang
cs.AI
papers.abstract
Le scaling au moment du test (Test-Time Scaling, TTS) améliore les performances des grands modèles de langage (LLMs) en allouant des ressources de calcul supplémentaires lors de l'inférence. Cependant, les recherches existantes se concentrent principalement sur le TTS dans des tâches à une seule étape, alors que de nombreux problèmes réels sont des tâches complexes multi-étapes, composées d'une séquence de sous-tâches hétérogènes, chacune nécessitant un LLM avec des capacités spécifiques. Par conséquent, nous étudions un nouveau problème : le scaling optimal des ressources de calcul au moment du test dans des tâches complexes multi-étapes, visant à sélectionner des modèles adaptés et à allouer des budgets par sous-tâche pour maximiser la performance globale. Le TTS dans des tâches multi-étapes introduit deux défis fondamentaux : (i) L'espace de recherche combinatoire des allocations de modèles et de budgets, combiné au coût élevé de l'inférence, rend la recherche par force brute impraticable. (ii) Les allocations optimales de modèles et de budgets entre les sous-tâches sont interdépendantes, augmentant la complexité de la recherche optimale des ressources de calcul. Pour combler cette lacune, nous menons des expériences pilotes approfondies sur quatre tâches réparties sur six jeux de données, dérivant trois insights empiriques caractérisant le comportement des LLMs dans des tâches complexes multi-étapes. Guidés par ces insights, nous proposons AgentTTS, un framework basé sur des agents LLM qui recherche de manière autonome des allocations optimales de ressources de calcul grâce à des interactions itératives et pilotées par feedback avec l'environnement d'exécution. Les résultats expérimentaux démontrent qu'AgentTTS surpasse significativement les approches traditionnelles et d'autres baselines basées sur les LLMs en termes d'efficacité de recherche, tout en montrant une robustesse accrue face à des tailles variables d'ensembles d'entraînement et une interprétabilité améliorée.
English
Test-time scaling (TTS) enhances the performance of large language models
(LLMs) by allocating additional compute resources during inference. However,
existing research primarily investigates TTS in single-stage tasks; while many
real-world problems are multi-stage complex tasks, composed of a sequence of
heterogeneous subtasks with each subtask requires LLM of specific capability.
Therefore, we study a novel problem: the test-time compute-optimal scaling in
multi-stage complex tasks, aiming to select suitable models and allocate
budgets per subtask to maximize overall performance. TTS in multi-stage tasks
introduces two fundamental challenges: (i) The combinatorial search space of
model and budget allocations, combined with the high cost of inference, makes
brute-force search impractical. (ii) The optimal model and budget allocations
across subtasks are interdependent, increasing the complexity of the
compute-optimal search. To address this gap, we conduct extensive pilot
experiments on four tasks across six datasets, deriving three empirical
insights characterizing the behavior of LLMs in multi-stage complex tasks.
Informed by these insights, we propose AgentTTS, an LLM-agent-based framework
that autonomously searches for compute-optimal allocations through iterative
feedback-driven interactions with the execution environment. Experimental
results demonstrate that AgentTTS significantly outperforms traditional and
other LLM-based baselines in search efficiency, and shows improved robustness
to varying training set sizes and enhanced interpretability.