ChatPaper.aiChatPaper

Optima: Optimierung von Effektivität und Effizienz für ein auf LLM basierendes Multi-Agenten-System

Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System

October 10, 2024
Autoren: Weize Chen, Jiarui Yuan, Chen Qian, Cheng Yang, Zhiyuan Liu, Maosong Sun
cs.AI

Zusammenfassung

Große Sprachmodell (LLM)-basierte Multi-Agenten-Systeme (MAS) zeigen bemerkenswertes Potenzial bei der kollaborativen Problemlösung, stehen jedoch immer noch vor kritischen Herausforderungen: geringe Kommunikationseffizienz, schlechte Skalierbarkeit und ein Mangel an effektiven Optimierungsmethoden für die Parameteraktualisierung. Wir stellen Optima vor, ein neuartiges Framework, das diese Probleme durch eine signifikante Verbesserung sowohl der Kommunikationseffizienz als auch der Aufgabeneffektivität in LLM-basierten MAS durch LLM-Training angeht. Optima verwendet ein iteratives Generieren, Rangieren, Auswählen und Trainieren-Paradigma mit einer Belohnungsfunktion, die die Aufgabenausführung, Token-Effizienz und Kommunikationslesbarkeit ausbalanciert. Wir untersuchen verschiedene RL-Algorithmen, einschließlich Überwachtes Feintuning, Direkte Präferenzoptimierung und deren hybride Ansätze, um Einblicke in ihre Effektivitäts-Effizienz-Abwägungen zu geben. Wir integrieren Monte Carlo Tree Search-inspirierte Techniken für die DPO-Datengenerierung, behandeln Gesprächswendungen als Baumknoten, um verschiedene Interaktionspfade zu erkunden. Anhand gängiger Multi-Agenten-Aufgaben, einschließlich informationsasymmetrischer Fragebeantwortung und komplexer Schlussfolgerungen, zeigt Optima konsistente und signifikante Verbesserungen gegenüber Einzelagenten-Baselines und Vanilla-MAS basierend auf Llama 3 8B, mit einer Leistungssteigerung um bis zu 2,8-fach bei weniger als 10\% der Tokens bei Aufgaben, die einen intensiven Informationsaustausch erfordern. Darüber hinaus eröffnen die Effizienzgewinne von Optima neue Möglichkeiten, um Inferenz-Berechnungen effektiver zu nutzen, was zu verbesserten Skalierungsgesetzen für die Inferenzzeit führt. Indem Optima grundlegende Herausforderungen in LLM-basierten MAS angeht, zeigt es das Potenzial für skalierbare, effiziente und effektive MAS (https://chenweize1998.github.io/optima-project-page).
English
Large Language Model (LLM) based multi-agent systems (MAS) show remarkable potential in collaborative problem-solving, yet they still face critical challenges: low communication efficiency, poor scalability, and a lack of effective parameter-updating optimization methods. We present Optima, a novel framework that addresses these issues by significantly enhancing both communication efficiency and task effectiveness in LLM-based MAS through LLM training. Optima employs an iterative generate, rank, select, and train paradigm with a reward function balancing task performance, token efficiency, and communication readability. We explore various RL algorithms, including Supervised Fine-Tuning, Direct Preference Optimization, and their hybrid approaches, providing insights into their effectiveness-efficiency trade-offs. We integrate Monte Carlo Tree Search-inspired techniques for DPO data generation, treating conversation turns as tree nodes to explore diverse interaction paths. Evaluated on common multi-agent tasks, including information-asymmetric question answering and complex reasoning, Optima shows consistent and substantial improvements over single-agent baselines and vanilla MAS based on Llama 3 8B, achieving up to 2.8x performance gain with less than 10\% tokens on tasks requiring heavy information exchange. Moreover, Optima's efficiency gains open new possibilities for leveraging inference-compute more effectively, leading to improved inference-time scaling laws. By addressing fundamental challenges in LLM-based MAS, Optima shows the potential towards scalable, efficient, and effective MAS (https://chenweize1998.github.io/optima-project-page).

Summary

AI-Generated Summary

PDF82November 16, 2024