混合智能体增强大型语言模型能力Mixture-of-Agents Enhances Large Language Model Capabilities
最近对大型语言模型(LLMs)的研究取得了显著进展,展示了在自然语言理解和生成任务方面的实质性能力。随着LLMs数量的增长,如何利用多个LLMs的集体专业知识是一个令人兴奋的开放方向。为了实现这一目标,我们提出了一种新方法,通过“混合代理人”(MoA)方法利用多个LLMs的集体优势。在我们的方法中,我们构建了一个分层MoA架构,其中每一层包含多个LLM代理人。每个代理人将前一层代理人的所有输出作为辅助信息,用于生成其响应。MoA模型在AlpacaEval 2.0、MT-Bench和FLASK上实现了最先进的性能,超越了GPT-4 Omni。例如,我们仅使用开源LLMs的MoA在AlpacaEval 2.0中领先GPT-4 Omni相当大的差距,取得了65.1%的得分,而GPT-4 Omni仅为57.5%。