MPO: Усиление агентов на основе больших языковых моделей с помощью метаоптимизации плановMPO: Boosting LLM Agents with Meta Plan Optimization
Последние достижения в области больших языковых моделей (LLM) позволили агентам на основе LLM успешно справляться с задачами интерактивного планирования. Однако, несмотря на их успехи, существующие подходы часто страдают от галлюцинаций при планировании и требуют переобучения для каждого нового агента. Для решения этих проблем мы предлагаем фреймворк Meta Plan Optimization (MPO), который улучшает способности агентов к планированию за счет прямого включения явных указаний. В отличие от предыдущих методов, которые полагаются на сложные знания, требующие значительных человеческих усилий или не обеспечивающие гарантии качества, MPO использует высокоуровневые общие указания через метапланы для помощи в планировании агентов и позволяет непрерывно оптимизировать метапланы на основе обратной связи от выполнения задач агентом. Наши эксперименты, проведенные на двух репрезентативных задачах, демонстрируют, что MPO значительно превосходит существующие базовые подходы. Более того, наш анализ показывает, что MPO предоставляет готовое решение, которое улучшает как эффективность выполнения задач, так и способность к обобщению в ранее не встречавшихся сценариях.