ChatPaper.aiChatPaper

Hoe kan inputherformulering de nauwkeurigheid van toolgebruik verbeteren in een complexe dynamische omgeving? Een studie over τ-bench

How Can Input Reformulation Improve Tool Usage Accuracy in a Complex Dynamic Environment? A Study on τ-bench

August 28, 2025
Auteurs: Venkatesh Mishra, Amir Saeidi, Satyam Raj, Mutsumi Nakamura, Jayanth Srinivasa, Gaowen Liu, Ali Payani, Chitta Baral
cs.AI

Samenvatting

Recente vooruitgang in de redeneer- en planningscapaciteiten van grote taalmodellen (LLMs) heeft hun potentieel als autonome agents die tools kunnen gebruiken in dynamische omgevingen vergroot. In multi-turn conversatieomgevingen zoals tau-bench hebben deze agents echter vaak moeite met consistent redeneren, het naleven van domeinspecifiek beleid en het correct extraheren van informatie over een lange reeks tool-aanroepen en conversaties. Om deze fouten vast te stellen en te mitigeren, voeren we een uitgebreide handmatige analyse uit van de veelvoorkomende fouten in de conversatietrajecten. Vervolgens experimenteren we met herformuleringen van de invoer voor de tool-aanroepende agent om de besluitvorming van de agent te verbeteren. Ten slotte stellen we het Input-Reformulering Multi-Agent (IRMA) framework voor, dat automatisch gebruikersvragen herformuleert, aangevuld met relevante domeinregels en toolsuggesties waar de tool-aanroepende agent zich op kan richten. De resultaten tonen aan dat IRMA significant beter presteert dan ReAct, Function Calling en Self-Reflection met respectievelijk 16,1%, 12,7% en 19,1% in de overall pass^5 scores. Deze bevindingen benadrukken de superieure betrouwbaarheid en consistentie van IRMA in vergelijking met andere methoden in dynamische omgevingen.
English
Recent advances in reasoning and planning capabilities of large language models (LLMs) have enabled their potential as autonomous agents capable of tool use in dynamic environments. However, in multi-turn conversational environments like tau-bench, these agents often struggle with consistent reasoning, adherence to domain-specific policies, and extracting correct information over a long horizon of tool-calls and conversation. To capture and mitigate these failures, we conduct a comprehensive manual analysis of the common errors occurring in the conversation trajectories. We then experiment with reformulations of inputs to the tool-calling agent for improvement in agent decision making. Finally, we propose the Input-Reformulation Multi-Agent (IRMA) framework, which automatically reformulates user queries augmented with relevant domain rules and tool suggestions for the tool-calling agent to focus on. The results show that IRMA significantly outperforms ReAct, Function Calling, and Self-Reflection by 16.1%, 12.7%, and 19.1%, respectively, in overall pass^5 scores. These findings highlight the superior reliability and consistency of IRMA compared to other methods in dynamic environments.
PDF152September 2, 2025