思考のすべて:思考生成におけるペンローズの三角形の法則に挑む
Everything of Thoughts: Defying the Law of Penrose Triangle for Thought Generation
November 7, 2023
著者: Ruomeng Ding, Chaoyun Zhang, Lu Wang, Yong Xu, Minghua Ma, Wei Zhang, Si Qin, Saravan Rajmohan, Qingwei Lin, Dongmei Zhang
cs.AI
要旨
大規模言語モデル(LLMs)の最近の進展により、複雑な問題を「思考」と呼ばれるより管理可能な言語シーケンスに分解することで、意思決定が革新されました。効果的な思考設計では、パフォーマンス、効率性、柔軟性という3つの重要な視点を考慮する必要があります。しかし、既存の思考はせいぜいこれらの属性のうち2つしか示すことができません。これらの制限に対処するため、我々は「Everything of Thoughts」(XoT)と呼ばれる新しい思考プロンプト手法を導入し、既存の思考パラダイムの「ペンローズの三角形」の法則に挑戦します。XoTは、事前学習された強化学習とモンテカルロ木探索(MCTS)を活用して、外部のドメイン知識を思考に組み込み、LLMsの能力を向上させ、未見の問題に効率的に一般化することを可能にします。MCTS-LLM協調思考修正フレームワークを利用することで、このアプローチは最小限のLLMインタラクションで高品質な包括的認知マッピングを自律的に生成します。さらに、XoTはLLMsに制約のない思考を可能にし、複数の解決策を持つ問題に対して柔軟な認知マッピングを実現します。
English
Recent advancements in Large Language Models (LLMs) have revolutionized
decision-making by breaking down complex problems into more manageable language
sequences referred to as ``thoughts''. An effective thought design should
consider three key perspectives: performance, efficiency, and flexibility.
However, existing thought can at most exhibit two of these attributes. To
address these limitations, we introduce a novel thought prompting approach
called ``Everything of Thoughts'' (XoT) to defy the law of ``Penrose triangle
of existing thought paradigms. XoT leverages pretrained reinforcement learning
and Monte Carlo Tree Search (MCTS) to incorporate external domain knowledge
into thoughts, thereby enhancing LLMs' capabilities and enabling them to
generalize to unseen problems efficiently. Through the utilization of the
MCTS-LLM collaborative thought revision framework, this approach autonomously
produces high-quality comprehensive cognitive mappings with minimal LLM
interactions. Additionally, XoT empowers LLMs to engage in unconstrained
thinking, allowing for flexible cognitive mappings for problems with multiple
solutions.