MPO: メタプラン最適化によるLLMエージェントの強化MPO: Boosting LLM Agents with Meta Plan Optimization
大規模言語モデル(LLM)の最近の進歩により、LLMベースのエージェントがインタラクティブな計画タスクを成功裏に処理できるようになりました。しかし、その成功にもかかわらず、既存のアプローチは計画の幻覚(planning hallucinations)に悩まされることが多く、新しいエージェントごとに再学習が必要です。これらの課題に対処するため、我々はメタ計画最適化(Meta Plan Optimization, MPO)フレームワークを提案します。MPOは、明示的なガイダンスを直接組み込むことでエージェントの計画能力を強化します。従来の方法とは異なり、MPOは複雑な知識に依存せず、人間の多大な労力を必要とするか、品質保証が欠如しているような問題を回避します。代わりに、MPOはメタ計画を通じて高レベルの一般的なガイダンスを活用し、エージェントの計画を支援するとともに、エージェントのタスク実行からのフィードバックに基づいてメタ計画を継続的に最適化します。2つの代表的なタスクで実施した実験により、MPOが既存のベースラインを大幅に上回ることが示されました。さらに、分析の結果、MPOはプラグアンドプレイのソリューションとして、タスク完了効率と未経験シナリオにおける汎化能力の両方を向上させることが明らかになりました。