ChatPaper.aiChatPaper

Modelo de Lenguaje a Gran Escala para la Ciencia: Un Estudio sobre P vs. NP

Large Language Model for Science: A Study on P vs. NP

September 11, 2023
Autores: Qingxiu Dong, Li Dong, Ke Xu, Guangyan Zhou, Yaru Hao, Zhifang Sui, Furu Wei
cs.AI

Resumen

En este trabajo, utilizamos modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) para ampliar y acelerar la investigación sobre el problema P versus NP, uno de los problemas abiertos más importantes en la ciencia de la computación teórica y las matemáticas. Específicamente, proponemos el razonamiento socrático, un marco general que fomenta el pensamiento profundo con LLMs para la resolución de problemas complejos. El razonamiento socrático incentiva a los LLMs a descubrir, resolver e integrar problemas de manera recursiva, al mismo tiempo que facilita la autoevaluación y el refinamiento. Nuestro estudio piloto sobre el problema P vs. NP muestra que GPT-4 produce exitosamente un esquema de prueba y participa en un razonamiento riguroso a lo largo de 97 turnos de diálogo, concluyendo que "P ≠ NP", lo cual está en línea con (Xu y Zhou, 2023). La investigación revela perspectivas novedosas dentro del extenso espacio de soluciones de los LLMs, arrojando luz sobre el uso de LLMs para la ciencia.
English
In this work, we use large language models (LLMs) to augment and accelerate research on the P versus NP problem, one of the most important open problems in theoretical computer science and mathematics. Specifically, we propose Socratic reasoning, a general framework that promotes in-depth thinking with LLMs for complex problem-solving. Socratic reasoning encourages LLMs to recursively discover, solve, and integrate problems while facilitating self-evaluation and refinement. Our pilot study on the P vs. NP problem shows that GPT-4 successfully produces a proof schema and engages in rigorous reasoning throughout 97 dialogue turns, concluding "P neq NP", which is in alignment with (Xu and Zhou, 2023). The investigation uncovers novel insights within the extensive solution space of LLMs, shedding light on LLM for Science.
PDF2134December 15, 2024