科学のための大規模言語モデル:P vs. NPに関する研究
Large Language Model for Science: A Study on P vs. NP
September 11, 2023
著者: Qingxiu Dong, Li Dong, Ke Xu, Guangyan Zhou, Yaru Hao, Zhifang Sui, Furu Wei
cs.AI
要旨
本研究では、大規模言語モデル(LLM)を用いて、理論計算機科学と数学における最も重要な未解決問題の一つであるP対NP問題の研究を拡充・加速する。具体的には、複雑な問題解決のためにLLMを用いた深い思考を促進する汎用フレームワークである「ソクラテス的推論」を提案する。ソクラテス的推論は、LLMが問題を再帰的に発見し、解決し、統合することを促すと同時に、自己評価と改善を促進する。P対NP問題に関するパイロット研究では、GPT-4が証明スキーマを生成し、97回の対話を通じて厳密な推論を行い、「P ≠ NP」という結論に至ったことが示された。これは(Xu and Zhou, 2023)と一致する結果である。この調査により、LLMの広大な解空間における新たな洞察が明らかになり、科学のためのLLMの可能性が示唆された。
English
In this work, we use large language models (LLMs) to augment and accelerate
research on the P versus NP problem, one of the most important open problems in
theoretical computer science and mathematics. Specifically, we propose Socratic
reasoning, a general framework that promotes in-depth thinking with LLMs for
complex problem-solving. Socratic reasoning encourages LLMs to recursively
discover, solve, and integrate problems while facilitating self-evaluation and
refinement. Our pilot study on the P vs. NP problem shows that GPT-4
successfully produces a proof schema and engages in rigorous reasoning
throughout 97 dialogue turns, concluding "P neq NP", which is in alignment
with (Xu and Zhou, 2023). The investigation uncovers novel insights within the
extensive solution space of LLMs, shedding light on LLM for Science.