ChatPaper.aiChatPaper

Optima: Otimizando a Efetividade e Eficiência para um Sistema Multiagente Baseado em LLM

Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System

October 10, 2024
Autores: Weize Chen, Jiarui Yuan, Chen Qian, Cheng Yang, Zhiyuan Liu, Maosong Sun
cs.AI

Resumo

Os Sistemas Multiagentes (MAS) baseados em Modelos de Linguagem Grande (LLM) demonstram um potencial notável na resolução colaborativa de problemas, porém ainda enfrentam desafios críticos: baixa eficiência de comunicação, escalabilidade limitada e falta de métodos eficazes de otimização de atualização de parâmetros. Apresentamos o Optima, um novo framework que aborda essas questões ao aprimorar significativamente tanto a eficiência de comunicação quanto a eficácia da tarefa em MAS baseados em LLM por meio do treinamento do LLM. O Optima emprega um paradigma iterativo de geração, classificação, seleção e treinamento com uma função de recompensa que equilibra o desempenho da tarefa, eficiência de tokens e legibilidade da comunicação. Exploramos vários algoritmos de RL, incluindo Ajuste Fino Supervisionado, Otimização Direta de Preferências e suas abordagens híbridas, fornecendo insights sobre os compromissos entre eficácia e eficiência. Integramos técnicas inspiradas em Monte Carlo Tree Search para geração de dados de ODP, tratando as trocas de conversa como nós de árvores para explorar caminhos de interação diversos. Avaliado em tarefas multiagentes comuns, incluindo perguntas assimétricas de resposta à informação e raciocínio complexo, o Optima mostra melhorias consistentes e substanciais em relação às bases de agentes únicos e MAS simples baseados no Llama 3 8B, alcançando até 2,8 vezes mais desempenho com menos de 10% de tokens em tarefas que exigem intenso intercâmbio de informações. Além disso, os ganhos de eficiência do Optima abrem novas possibilidades para aproveitar a inferência-computação de forma mais eficaz, levando a leis de escalonamento de tempo de inferência aprimoradas. Ao abordar desafios fundamentais em MAS baseados em LLM, o Optima demonstra o potencial para MAS escaláveis, eficientes e eficazes (https://chenweize1998.github.io/optima-project-page).
English
Large Language Model (LLM) based multi-agent systems (MAS) show remarkable potential in collaborative problem-solving, yet they still face critical challenges: low communication efficiency, poor scalability, and a lack of effective parameter-updating optimization methods. We present Optima, a novel framework that addresses these issues by significantly enhancing both communication efficiency and task effectiveness in LLM-based MAS through LLM training. Optima employs an iterative generate, rank, select, and train paradigm with a reward function balancing task performance, token efficiency, and communication readability. We explore various RL algorithms, including Supervised Fine-Tuning, Direct Preference Optimization, and their hybrid approaches, providing insights into their effectiveness-efficiency trade-offs. We integrate Monte Carlo Tree Search-inspired techniques for DPO data generation, treating conversation turns as tree nodes to explore diverse interaction paths. Evaluated on common multi-agent tasks, including information-asymmetric question answering and complex reasoning, Optima shows consistent and substantial improvements over single-agent baselines and vanilla MAS based on Llama 3 8B, achieving up to 2.8x performance gain with less than 10\% tokens on tasks requiring heavy information exchange. Moreover, Optima's efficiency gains open new possibilities for leveraging inference-compute more effectively, leading to improved inference-time scaling laws. By addressing fundamental challenges in LLM-based MAS, Optima shows the potential towards scalable, efficient, and effective MAS (https://chenweize1998.github.io/optima-project-page).

Summary

AI-Generated Summary

PDF82November 16, 2024