ChatPaper.aiChatPaper

Großes Sprachmodell für die Wissenschaft: Eine Studie zu P vs. NP

Large Language Model for Science: A Study on P vs. NP

September 11, 2023
Autoren: Qingxiu Dong, Li Dong, Ke Xu, Guangyan Zhou, Yaru Hao, Zhifang Sui, Furu Wei
cs.AI

Zusammenfassung

In dieser Arbeit verwenden wir große Sprachmodelle (LLMs), um die Forschung zum P-versus-NP-Problem, einem der wichtigsten offenen Probleme in der theoretischen Informatik und Mathematik, zu erweitern und zu beschleunigen. Insbesondere schlagen wir das sokratische Denken vor, einen allgemeinen Rahmen, der tiefgehendes Denken mit LLMs für komplexe Problemlösungen fördert. Das sokratische Denken ermutigt LLMs dazu, Probleme rekursiv zu entdecken, zu lösen und zu integrieren, während es gleichzeitig Selbstbewertung und Verfeinerung erleichtert. Unsere Pilotstudie zum P-versus-NP-Problem zeigt, dass GPT-4 erfolgreich ein Beweisschema erstellt und sich in 97 Dialogschritten an strengem Denken beteiligt, wobei es zu dem Schluss kommt, dass „P ≠ NP“ ist, was mit (Xu und Zhou, 2023) übereinstimmt. Die Untersuchung deckt neue Erkenntnisse im umfangreichen Lösungsraum von LLMs auf und wirft Licht auf den Einsatz von LLMs in der Wissenschaft.
English
In this work, we use large language models (LLMs) to augment and accelerate research on the P versus NP problem, one of the most important open problems in theoretical computer science and mathematics. Specifically, we propose Socratic reasoning, a general framework that promotes in-depth thinking with LLMs for complex problem-solving. Socratic reasoning encourages LLMs to recursively discover, solve, and integrate problems while facilitating self-evaluation and refinement. Our pilot study on the P vs. NP problem shows that GPT-4 successfully produces a proof schema and engages in rigorous reasoning throughout 97 dialogue turns, concluding "P neq NP", which is in alignment with (Xu and Zhou, 2023). The investigation uncovers novel insights within the extensive solution space of LLMs, shedding light on LLM for Science.
PDF2134December 15, 2024