Grote Taalmodellen als Gereedschapsmakers
Large Language Models as Tool Makers
May 26, 2023
Auteurs: Tianle Cai, Xuezhi Wang, Tengyu Ma, Xinyun Chen, Denny Zhou
cs.AI
Samenvatting
Recent onderzoek toont het potentieel aan van het verbeteren van het probleemoplossend vermogen van grote taalmodellen (LLM's) door het gebruik van externe tools. Echter, eerder werk op dit gebied is afhankelijk van de beschikbaarheid van bestaande tools. In dit werk zetten we een eerste stap om deze afhankelijkheid te verwijderen door een gesloten framework voor te stellen, genaamd LLMs As Tool Makers (LATM), waarbij LLM's hun eigen herbruikbare tools creëren voor probleemoplossing. Onze aanpak bestaat uit twee belangrijke fasen: 1) tool maken: een LLM fungeert als de toolmaker die tools ontwikkelt voor gegeven taken, waarbij een tool wordt geïmplementeerd als een Python utility-functie. 2) tool gebruiken: een LLM fungeert als de toolgebruiker, die de door de toolmaker gebouwde tool toepast voor probleemoplossing. De toolgebruiker kan hetzelfde of een ander LLM zijn dan de toolmaker. Toolmaken stelt een LLM in staat om continu tools te genereren die kunnen worden toegepast op verschillende verzoeken, zodat toekomstige verzoeken de corresponderende API's kunnen aanroepen wanneer dit nuttig is voor het oplossen van de taken. Bovendien introduceert de taakverdeling tussen LLM's voor de toolmaken- en toolgebruikfasen de mogelijkheid om kosteneffectiviteit te bereiken zonder de kwaliteit van de gegenereerde tools en probleemoplossingen te verminderen. Zo kunnen we, door te erkennen dat toolmaken meer geavanceerde capaciteiten vereist dan toolgebruik, een krachtig maar resource-intensief model toepassen als de toolmaker, en een lichtgewicht en kosteneffectief model als de toolgebruiker. We valideren de effectiviteit van onze aanpak voor een verscheidenheid aan complexe redeneertaken, waaronder Big-Bench taken. Met GPT-4 als de toolmaker en GPT-3.5 als de toolgebruiker, kan LATM prestaties bereiken die vergelijkbaar zijn met het gebruik van GPT-4 voor zowel toolmaken als toolgebruik, terwijl de inferentiekosten aanzienlijk worden verlaagd.
English
Recent research shows the potential of enhancing the problem-solving ability
of large language models (LLMs) through the use of external tools. However,
prior work along this line depends on the availability of existing tools. In
this work, we take an initial step towards removing this dependency by
proposing a closed-loop framework, referred to as LLMs As Tool Makers (LATM),
where LLMs create their own reusable tools for problem-solving. Our approach
consists of two key phases: 1) tool making: an LLM acts as the tool maker that
crafts tools for given tasks, where a tool is implemented as a Python utility
function. 2) tool using: an LLM acts as the tool user, which applies the tool
built by the tool maker for problem-solving. The tool user can be either the
same or a different LLM from the tool maker. Tool-making enables an LLM to
continually generate tools that can be applied to different requests so that
future requests can call the corresponding APIs when beneficial for solving the
tasks. Furthermore, the division of labor among LLMs for tool-making and
tool-using phases introduces the opportunity to achieve cost effectiveness
without degrading the quality of generated tools and problem solutions. For
example, recognizing that tool-making demands more sophisticated capabilities
than tool-using, we can apply a powerful yet resource-intensive model as the
tool maker, and a lightweight while cost-effective model as the tool user. We
validate the effectiveness of our approach across a variety of complex
reasoning tasks, including Big-Bench tasks. With GPT-4 as the tool maker and
GPT-3.5 as the tool user, LATM can achieve performance that is on par with
using GPT-4 for both tool making and tool using, while the inference cost is
significantly reduced.