混合式代理模型增強大型語言模型的能力Mixture-of-Agents Enhances Large Language Model Capabilities
最近對大型語言模型(LLMs)的進展展示了在自然語言理解和生成任務中的顯著能力。隨著LLMs數量的增加,如何利用多個LLMs的集體專業知識是一個令人興奮的開放方向。為了實現這一目標,我們提出了一種新方法,通過混合式代理(MoA)方法利用多個LLMs的集體優勢。在我們的方法中,我們構建了一個分層MoA架構,其中每一層包含多個LLM代理。每個代理將前一層代理的所有輸出作為輔助信息,用於生成其回應。MoA模型在AlpacaEval 2.0、MT-Bench和FLASK上實現了最先進的性能,超越了GPT-4 Omni。例如,我們的MoA僅使用開源LLMs,在AlpacaEval 2.0中領先GPT-4 Omni很大差距,獲得了65.1%的得分,而GPT-4 Omni則為57.5%。