深層LLM思考の進化
Evolving Deeper LLM Thinking
January 17, 2025
著者: Kuang-Huei Lee, Ian Fischer, Yueh-Hua Wu, Dave Marwood, Shumeet Baluja, Dale Schuurmans, Xinyun Chen
cs.AI
要旨
大規模言語モデルにおける推論時間の計算スケーリングのための進化的探索戦略を探求します。提案された手法であるMind Evolution は、言語モデルを使用して候補応答を生成し、再結合し、洗練します。提案された手法は、解決手法の評価者が利用可能な場合には、基礎となる推論問題を形式化する必要がありません。推論コストを制御した結果、TravelPlanner および Natural Plan のベンチマークにおいて、Mind Evolution は、Best-of-N や Sequential Revision などの他の推論戦略を大きく上回ります。Gemini 1.5 Pro を使用し、形式的なソルバーを使用せずに、Mind Evolution は問題インスタンスの98%以上を解決します。
English
We explore an evolutionary search strategy for scaling inference time compute
in Large Language Models. The proposed approach, Mind Evolution, uses a
language model to generate, recombine and refine candidate responses. The
proposed approach avoids the need to formalize the underlying inference problem
whenever a solution evaluator is available. Controlling for inference cost, we
find that Mind Evolution significantly outperforms other inference strategies
such as Best-of-N and Sequential Revision in natural language planning tasks.
In the TravelPlanner and Natural Plan benchmarks, Mind Evolution solves more
than 98% of the problem instances using Gemini 1.5 Pro without the use of a
formal solver.Summary
AI-Generated Summary