Смесь агентов улучшает возможности большой языковой моделиMixture-of-Agents Enhances Large Language Model Capabilities
Недавние достижения в области крупных языковых моделей (LLM) демонстрируют значительные возможности в понимании и генерации естественного языка. С увеличением количества LLM возникает вопрос о том, как использовать коллективные знания нескольких LLM, что представляет собой увлекательное направление исследований. Для достижения этой цели мы предлагаем новый подход, который использует коллективные сильные стороны нескольких LLM с помощью методологии Смеси Агентов (MoA). В нашем подходе мы строим слоистую архитектуру MoA, в которой каждый слой состоит из нескольких агентов LLM. Каждый агент использует все выходные данные агентов предыдущего слоя в качестве вспомогательной информации при генерации своего ответа. Модели MoA достигают передовых результатов на AlpacaEval 2.0, MT-Bench и FLASK, превосходя GPT-4 Omni. Например, наша MoA, использующая только открытые LLM, является лидером AlpacaEval 2.0 с существенным отрывом, достигая показателя 65,1% по сравнению с 57,5% у GPT-4 Omni.