Großes Sprachmodell für die Wissenschaft: Eine Studie zu P vs. NP
Large Language Model for Science: A Study on P vs. NP
September 11, 2023
Autoren: Qingxiu Dong, Li Dong, Ke Xu, Guangyan Zhou, Yaru Hao, Zhifang Sui, Furu Wei
cs.AI
Zusammenfassung
In dieser Arbeit verwenden wir große Sprachmodelle (LLMs), um die Forschung zum P-versus-NP-Problem, einem der wichtigsten offenen Probleme in der theoretischen Informatik und Mathematik, zu erweitern und zu beschleunigen. Insbesondere schlagen wir das sokratische Denken vor, einen allgemeinen Rahmen, der tiefgehendes Denken mit LLMs für komplexe Problemlösungen fördert. Das sokratische Denken ermutigt LLMs dazu, Probleme rekursiv zu entdecken, zu lösen und zu integrieren, während es gleichzeitig Selbstbewertung und Verfeinerung erleichtert. Unsere Pilotstudie zum P-versus-NP-Problem zeigt, dass GPT-4 erfolgreich ein Beweisschema erstellt und sich in 97 Dialogschritten an strengem Denken beteiligt, wobei es zu dem Schluss kommt, dass „P ≠ NP“ ist, was mit (Xu und Zhou, 2023) übereinstimmt. Die Untersuchung deckt neue Erkenntnisse im umfangreichen Lösungsraum von LLMs auf und wirft Licht auf den Einsatz von LLMs in der Wissenschaft.
English
In this work, we use large language models (LLMs) to augment and accelerate
research on the P versus NP problem, one of the most important open problems in
theoretical computer science and mathematics. Specifically, we propose Socratic
reasoning, a general framework that promotes in-depth thinking with LLMs for
complex problem-solving. Socratic reasoning encourages LLMs to recursively
discover, solve, and integrate problems while facilitating self-evaluation and
refinement. Our pilot study on the P vs. NP problem shows that GPT-4
successfully produces a proof schema and engages in rigorous reasoning
throughout 97 dialogue turns, concluding "P neq NP", which is in alignment
with (Xu and Zhou, 2023). The investigation uncovers novel insights within the
extensive solution space of LLMs, shedding light on LLM for Science.