Lumos: Leeragenten met Geünificeerde Data, Modulair Ontwerp en Open-Source LLM's
Lumos: Learning Agents with Unified Data, Modular Design, and Open-Source LLMs
November 9, 2023
Auteurs: Da Yin, Faeze Brahman, Abhilasha Ravichander, Khyathi Chandu, Kai-Wei Chang, Yejin Choi, Bill Yuchen Lin
cs.AI
Samenvatting
We introduceren Lumos, een nieuw raamwerk voor het trainen van taalagentschappen dat gebruikmaakt van een uniform dataformaat en een modulaire architectuur gebaseerd op open-source grote taalmodellen (LLM's). Lumos bestaat uit drie afzonderlijke modules: planning, gronding en uitvoering. De planningsmodule verdeelt een taak in een reeks hoogwaardige, tool-onafhankelijke subdoelen, die vervolgens specifiek worden gemaakt door de grondingsmodule via een set laagwaardige acties. Deze acties worden vervolgens uitgevoerd door de uitvoeringsmodule, waarbij gebruik wordt gemaakt van een reeks kant-en-klare tools en API's. Om deze modules effectief te trainen, zijn hoogwaardige annotaties van subdoelen en acties verzameld en beschikbaar gesteld voor het finetunen van open-source LLM's voor verschillende taken, zoals complexe vraagbeantwoording, webtaken en wiskundige problemen. Door gebruik te maken van deze uniforme data en modulaire ontwerp, bereikt Lumos niet alleen vergelijkbare of superieure prestaties ten opzichte van huidige, state-of-the-art agentschappen, maar vertoont het ook verschillende belangrijke voordelen: (1) Lumos overtreft GPT-4/3.5-gebaseerde agentschappen in complexe vraagbeantwoording en webtaken, terwijl het de prestaties evenaart van aanzienlijk grotere LLM-agentschappen bij wiskundige taken; (2) Lumos presteert beter dan open-source agentschappen die zijn gemaakt via conventionele trainingsmethoden en die gebruikmaken van chain-of-thoughts training; en (3) Lumos is in staat om effectief te generaliseren naar onbekende interactieve taken, waarbij het grotere LLM-gebaseerde agentschappen overtreft en zelfs de prestaties van gespecialiseerde agentschappen overstijgt.
English
We introduce Lumos, a novel framework for training language agents that
employs a unified data format and a modular architecture based on open-source
large language models (LLMs). Lumos consists of three distinct modules:
planning, grounding, and execution. The planning module breaks down a task into
a series of high-level, tool-agnostic subgoals, which are then made specific by
the grounding module through a set of low-level actions. These actions are
subsequently executed by the execution module, utilizing a range of
off-the-shelf tools and APIs. In order to train these modules effectively,
high-quality annotations of subgoals and actions were collected and are made
available for fine-tuning open-source LLMs for various tasks such as complex
question answering, web tasks, and math problems. Leveraging this unified data
and modular design, Lumos not only achieves comparable or superior performance
to current, state-of-the-art agents, but also exhibits several key advantages:
(1) Lumos surpasses GPT-4/3.5-based agents in complex question answering and
web tasks, while equalling the performance of significantly larger LLM agents
on math tasks; (2) Lumos outperforms open-source agents created through
conventional training methods and those using chain-of-thoughts training; and
(3) Lumos is capable of effectively generalizing to unseen interactive tasks,
outperforming larger LLM-based agents and even exceeding performance of
specialized agents.