ChatPaper.aiChatPaper

Óptima: Optimizando la Efectividad y Eficiencia para un Sistema Multiagente Basado en LLM

Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System

October 10, 2024
Autores: Weize Chen, Jiarui Yuan, Chen Qian, Cheng Yang, Zhiyuan Liu, Maosong Sun
cs.AI

Resumen

Los Sistemas Multiagente (MAS) basados en Modelos de Lenguaje Grande (LLM) muestran un potencial notable en la resolución colaborativa de problemas, sin embargo, todavía enfrentan desafíos críticos: baja eficiencia de comunicación, escasa escalabilidad y falta de métodos de optimización efectivos para la actualización de parámetros. Presentamos Optima, un marco novedoso que aborda estos problemas al mejorar significativamente tanto la eficiencia de comunicación como la efectividad de tareas en MAS basados en LLM a través del entrenamiento de LLM. Optima emplea un paradigma iterativo de generación, clasificación, selección y entrenamiento con una función de recompensa que equilibra el rendimiento de la tarea, la eficiencia de tokens y la legibilidad de la comunicación. Exploramos varios algoritmos de RL, incluyendo Ajuste Fino Supervisado, Optimización Directa de Preferencias y sus enfoques híbridos, proporcionando información sobre sus compensaciones de efectividad-eficiencia. Integramos técnicas inspiradas en la Búsqueda de Árbol de Monte Carlo para la generación de datos de DPO, tratando los turnos de conversación como nodos de árbol para explorar diversos caminos de interacción. Evaluado en tareas multiagente comunes, incluyendo respuestas asimétricas de información y razonamiento complejo, Optima muestra mejoras consistentes y sustanciales sobre líneas base de un solo agente y MAS básicos basados en Llama 3 8B, logrando hasta un aumento de rendimiento de 2.8 veces con menos del 10\% de tokens en tareas que requieren un intercambio intenso de información. Además, las ganancias de eficiencia de Optima abren nuevas posibilidades para aprovechar la inferencia-cómputo de manera más efectiva, lo que conduce a leyes de escalado de tiempo de inferencia mejoradas. Al abordar desafíos fundamentales en MAS basados en LLM, Optima muestra el potencial hacia MAS escalables, eficientes y efectivos (https://chenweize1998.github.io/optima-project-page).
English
Large Language Model (LLM) based multi-agent systems (MAS) show remarkable potential in collaborative problem-solving, yet they still face critical challenges: low communication efficiency, poor scalability, and a lack of effective parameter-updating optimization methods. We present Optima, a novel framework that addresses these issues by significantly enhancing both communication efficiency and task effectiveness in LLM-based MAS through LLM training. Optima employs an iterative generate, rank, select, and train paradigm with a reward function balancing task performance, token efficiency, and communication readability. We explore various RL algorithms, including Supervised Fine-Tuning, Direct Preference Optimization, and their hybrid approaches, providing insights into their effectiveness-efficiency trade-offs. We integrate Monte Carlo Tree Search-inspired techniques for DPO data generation, treating conversation turns as tree nodes to explore diverse interaction paths. Evaluated on common multi-agent tasks, including information-asymmetric question answering and complex reasoning, Optima shows consistent and substantial improvements over single-agent baselines and vanilla MAS based on Llama 3 8B, achieving up to 2.8x performance gain with less than 10\% tokens on tasks requiring heavy information exchange. Moreover, Optima's efficiency gains open new possibilities for leveraging inference-compute more effectively, leading to improved inference-time scaling laws. By addressing fundamental challenges in LLM-based MAS, Optima shows the potential towards scalable, efficient, and effective MAS (https://chenweize1998.github.io/optima-project-page).

Summary

AI-Generated Summary

PDF82November 16, 2024