ChatPaper.aiChatPaper

Les grands modèles de langage en tant que créateurs d'outils

Large Language Models as Tool Makers

May 26, 2023
Auteurs: Tianle Cai, Xuezhi Wang, Tengyu Ma, Xinyun Chen, Denny Zhou
cs.AI

Résumé

Des recherches récentes montrent le potentiel d'amélioration des capacités de résolution de problèmes des grands modèles de langage (LLMs) grâce à l'utilisation d'outils externes. Cependant, les travaux antérieurs dans ce domaine dépendent de la disponibilité d'outils existants. Dans cette étude, nous franchissons une première étape pour éliminer cette dépendance en proposant un cadre en boucle fermée, appelé LLMs As Tool Makers (LATM), où les LLMs créent leurs propres outils réutilisables pour la résolution de problèmes. Notre approche se compose de deux phases clés : 1) la création d'outils : un LLM agit en tant que créateur d'outils, concevant des outils pour des tâches données, où un outil est implémenté sous forme de fonction utilitaire en Python. 2) l'utilisation d'outils : un LLM agit en tant qu'utilisateur d'outils, appliquant l'outil construit par le créateur pour résoudre des problèmes. L'utilisateur d'outils peut être le même LLM ou un LLM différent du créateur. La création d'outils permet à un LLM de générer continuellement des outils qui peuvent être appliqués à différentes requêtes, de sorte que les requêtes futures peuvent appeler les API correspondantes lorsqu'elles sont bénéfiques pour résoudre les tâches. De plus, la division du travail entre les LLMs pour les phases de création et d'utilisation d'outils introduit l'opportunité d'atteindre une efficacité économique sans dégrader la qualité des outils générés et des solutions de problèmes. Par exemple, en reconnaissant que la création d'outils demande des capacités plus sophistiquées que leur utilisation, nous pouvons appliquer un modèle puissant mais gourmand en ressources en tant que créateur d'outils, et un modèle léger et économique en tant qu'utilisateur d'outils. Nous validons l'efficacité de notre approche sur une variété de tâches de raisonnement complexes, y compris les tâches Big-Bench. Avec GPT-4 en tant que créateur d'outils et GPT-3.5 en tant qu'utilisateur d'outils, LATM peut atteindre des performances comparables à l'utilisation de GPT-4 pour la création et l'utilisation d'outils, tout en réduisant considérablement le coût d'inférence.
English
Recent research shows the potential of enhancing the problem-solving ability of large language models (LLMs) through the use of external tools. However, prior work along this line depends on the availability of existing tools. In this work, we take an initial step towards removing this dependency by proposing a closed-loop framework, referred to as LLMs As Tool Makers (LATM), where LLMs create their own reusable tools for problem-solving. Our approach consists of two key phases: 1) tool making: an LLM acts as the tool maker that crafts tools for given tasks, where a tool is implemented as a Python utility function. 2) tool using: an LLM acts as the tool user, which applies the tool built by the tool maker for problem-solving. The tool user can be either the same or a different LLM from the tool maker. Tool-making enables an LLM to continually generate tools that can be applied to different requests so that future requests can call the corresponding APIs when beneficial for solving the tasks. Furthermore, the division of labor among LLMs for tool-making and tool-using phases introduces the opportunity to achieve cost effectiveness without degrading the quality of generated tools and problem solutions. For example, recognizing that tool-making demands more sophisticated capabilities than tool-using, we can apply a powerful yet resource-intensive model as the tool maker, and a lightweight while cost-effective model as the tool user. We validate the effectiveness of our approach across a variety of complex reasoning tasks, including Big-Bench tasks. With GPT-4 as the tool maker and GPT-3.5 as the tool user, LATM can achieve performance that is on par with using GPT-4 for both tool making and tool using, while the inference cost is significantly reduced.
PDF31December 15, 2024