Grand Modèle de Langage pour la Science : Une Étude sur P vs. NP
Large Language Model for Science: A Study on P vs. NP
September 11, 2023
Auteurs: Qingxiu Dong, Li Dong, Ke Xu, Guangyan Zhou, Yaru Hao, Zhifang Sui, Furu Wei
cs.AI
Résumé
Dans ce travail, nous utilisons des modèles de langage de grande taille (LLMs) pour enrichir et accélérer la recherche sur le problème P versus NP, l'un des problèmes ouverts les plus importants en informatique théorique et en mathématiques. Plus précisément, nous proposons le raisonnement socratique, un cadre général qui favorise une réflexion approfondie avec les LLMs pour la résolution de problèmes complexes. Le raisonnement socratique encourage les LLMs à découvrir, résoudre et intégrer des problèmes de manière récursive, tout en facilitant l'auto-évaluation et l'affinement. Notre étude pilote sur le problème P vs. NP montre que GPT-4 produit avec succès un schéma de preuve et s'engage dans un raisonnement rigoureux sur 97 tours de dialogue, concluant que "P ≠ NP", ce qui est en accord avec (Xu et Zhou, 2023). L'investigation révèle de nouvelles perspectives dans l'espace de solution étendu des LLMs, éclairant ainsi le potentiel des LLMs pour la science.
English
In this work, we use large language models (LLMs) to augment and accelerate
research on the P versus NP problem, one of the most important open problems in
theoretical computer science and mathematics. Specifically, we propose Socratic
reasoning, a general framework that promotes in-depth thinking with LLMs for
complex problem-solving. Socratic reasoning encourages LLMs to recursively
discover, solve, and integrate problems while facilitating self-evaluation and
refinement. Our pilot study on the P vs. NP problem shows that GPT-4
successfully produces a proof schema and engages in rigorous reasoning
throughout 97 dialogue turns, concluding "P neq NP", which is in alignment
with (Xu and Zhou, 2023). The investigation uncovers novel insights within the
extensive solution space of LLMs, shedding light on LLM for Science.