ChatPaper.aiChatPaper

AgentTTS: Taalmodelagent op grote schaal voor testtijd compute-optimale schaalstrategie in complexe taken

AgentTTS: Large Language Model Agent for Test-time Compute-optimal Scaling Strategy in Complex Tasks

July 26, 2025
Auteurs: Fali Wang, Hui Liu, Zhenwei Dai, Jingying Zeng, Zhiwei Zhang, Zongyu Wu, Chen Luo, Zhen Li, Xianfeng Tang, Qi He, Suhang Wang
cs.AI

Samenvatting

Test-time scaling (TTS) verbetert de prestaties van grote taalmodellen (LLMs) door extra rekenbronnen toe te wijzen tijdens de inferentie. Bestaand onderzoek richt zich echter voornamelijk op TTS in taken met één fase, terwijl veel real-world problemen complexe taken met meerdere fasen zijn, bestaande uit een reeks heterogene subtaken waarbij elke subtask een LLM met specifieke capaciteiten vereist. Daarom bestuderen we een nieuw probleem: de test-time compute-optimale schaling in complexe taken met meerdere fasen, met als doel geschikte modellen te selecteren en budgetten per subtask toe te wijzen om de algehele prestaties te maximaliseren. TTS in taken met meerdere fasen introduceert twee fundamentele uitdagingen: (i) De combinatorische zoekruimte van model- en budgettoewijzingen, gecombineerd met de hoge kosten van inferentie, maakt brute-force zoeken onpraktisch. (ii) De optimale model- en budgettoewijzingen over subtaken zijn onderling afhankelijk, wat de complexiteit van de compute-optimale zoekopdracht vergroot. Om deze kloof te overbruggen, voeren we uitgebreide pilootexperimenten uit op vier taken over zes datasets, waarbij we drie empirische inzichten afleiden die het gedrag van LLMs in complexe taken met meerdere fasen karakteriseren. Geïnformeerd door deze inzichten stellen we AgentTTS voor, een LLM-agent-gebaseerd framework dat autonoom zoekt naar compute-optimale toewijzingen via iteratieve feedback-gestuurde interacties met de uitvoeringsomgeving. Experimentele resultaten tonen aan dat AgentTTS traditionele en andere LLM-gebaseerde baseline-methoden significant overtreft in zoekefficiëntie, en verbeterde robuustheid toont bij variërende trainingssetgroottes en een verhoogde interpreteerbaarheid.
English
Test-time scaling (TTS) enhances the performance of large language models (LLMs) by allocating additional compute resources during inference. However, existing research primarily investigates TTS in single-stage tasks; while many real-world problems are multi-stage complex tasks, composed of a sequence of heterogeneous subtasks with each subtask requires LLM of specific capability. Therefore, we study a novel problem: the test-time compute-optimal scaling in multi-stage complex tasks, aiming to select suitable models and allocate budgets per subtask to maximize overall performance. TTS in multi-stage tasks introduces two fundamental challenges: (i) The combinatorial search space of model and budget allocations, combined with the high cost of inference, makes brute-force search impractical. (ii) The optimal model and budget allocations across subtasks are interdependent, increasing the complexity of the compute-optimal search. To address this gap, we conduct extensive pilot experiments on four tasks across six datasets, deriving three empirical insights characterizing the behavior of LLMs in multi-stage complex tasks. Informed by these insights, we propose AgentTTS, an LLM-agent-based framework that autonomously searches for compute-optimal allocations through iterative feedback-driven interactions with the execution environment. Experimental results demonstrate that AgentTTS significantly outperforms traditional and other LLM-based baselines in search efficiency, and shows improved robustness to varying training set sizes and enhanced interpretability.
PDF42August 5, 2025