MPO:通过元计划优化提升大语言模型代理性能MPO: Boosting LLM Agents with Meta Plan Optimization
近期,大型语言模型(LLMs)的进展使得基于LLM的智能体能够成功应对交互式规划任务。然而,尽管取得了这些成就,现有方法常面临规划幻觉问题,且需针对每个新智能体进行重新训练。为解决这些挑战,我们提出了元规划优化(Meta Plan Optimization, MPO)框架,该框架通过直接融入显式指导来增强智能体的规划能力。与以往依赖复杂知识的方法不同,这些方法要么需要大量人力投入,要么缺乏质量保证,MPO则通过元计划利用高层通用指导来辅助智能体规划,并基于智能体任务执行的反馈持续优化元计划。我们在两项代表性任务上的实验表明,MPO显著超越了现有基线方法。此外,分析结果显示,MPO提供了一种即插即用的解决方案,不仅提升了任务完成效率,还在先前未见场景中增强了泛化能力。