ChatPaper.aiChatPaper

深層LLM思考の進化

Evolving Deeper LLM Thinking

January 17, 2025
著者: Kuang-Huei Lee, Ian Fischer, Yueh-Hua Wu, Dave Marwood, Shumeet Baluja, Dale Schuurmans, Xinyun Chen
cs.AI

要旨

大規模言語モデルにおける推論時間の計算スケーリングのための進化的探索戦略を探求します。提案された手法であるMind Evolution は、言語モデルを使用して候補応答を生成し、再結合し、洗練します。提案された手法は、解決手法の評価者が利用可能な場合には、基礎となる推論問題を形式化する必要がありません。推論コストを制御した結果、TravelPlanner および Natural Plan のベンチマークにおいて、Mind Evolution は、Best-of-N や Sequential Revision などの他の推論戦略を大きく上回ります。Gemini 1.5 Pro を使用し、形式的なソルバーを使用せずに、Mind Evolution は問題インスタンスの98%以上を解決します。
English
We explore an evolutionary search strategy for scaling inference time compute in Large Language Models. The proposed approach, Mind Evolution, uses a language model to generate, recombine and refine candidate responses. The proposed approach avoids the need to formalize the underlying inference problem whenever a solution evaluator is available. Controlling for inference cost, we find that Mind Evolution significantly outperforms other inference strategies such as Best-of-N and Sequential Revision in natural language planning tasks. In the TravelPlanner and Natural Plan benchmarks, Mind Evolution solves more than 98% of the problem instances using Gemini 1.5 Pro without the use of a formal solver.

Summary

AI-Generated Summary

PDF1145January 20, 2025