ProtoRazonamiento: Los prototipos como base para el razonamiento generalizable en los LLM
ProtoReasoning: Prototypes as the Foundation for Generalizable Reasoning in LLMs
June 18, 2025
Autores: Feng He, Zijun Chen, Xinnian Liang, Tingting Ma, Yunqi Qiu, Shuangzhi Wu, Junchi Yan
cs.AI
Resumen
Los avances recientes en los Modelos de Razonamiento a Gran Escala (LRMs, por sus siglas en inglés) entrenados con el razonamiento de Cadena Larga de Pensamiento (Long CoT, por sus siglas en inglés) han demostrado capacidades notables de generalización entre dominios. Sin embargo, los mecanismos subyacentes que respaldan dicha transferencia siguen siendo poco comprendidos. Planteamos la hipótesis de que la generalización entre dominios surge de prototipos abstractos de razonamiento compartidos —patrones fundamentales de razonamiento que capturan la esencia de los problemas en distintos dominios—. Estos prototipos minimizan los matices de la representación, revelando que tareas aparentemente diversas se basan en estructuras de razonamiento compartidas. Basándonos en esta hipótesis, proponemos ProtoReasoning, un marco que mejora la capacidad de razonamiento de los LLMs (Modelos de Lenguaje a Gran Escala) mediante el uso de representaciones prototípicas escalables y verificables (Prolog para razonamiento lógico, PDDL para planificación). ProtoReasoning incluye: (1) una canalización automatizada de construcción de prototipos que transforma problemas en representaciones prototípicas correspondientes; (2) un sistema de verificación integral que proporciona retroalimentación confiable a través de intérpretes de Prolog/PDDL; (3) la escalabilidad para sintetizar problemas de manera arbitraria dentro del espacio de prototipos mientras se garantiza la corrección. Experimentos extensos muestran que ProtoReasoning logra una mejora del 4.7 % sobre los modelos de referencia en razonamiento lógico (Enigmata-Eval), un 6.3 % en tareas de planificación, un 4.0 % en razonamiento general (MMLU) y un 1.0 % en matemáticas (AIME24). De manera significativa, nuestros estudios de ablación confirman que el aprendizaje en el espacio de prototipos también demuestra una mayor generalización a problemas estructuralmente similares en comparación con el entrenamiento únicamente en representaciones de lenguaje natural, validando nuestra hipótesis de que los prototipos de razonamiento sirven como base para el razonamiento generalizable en los modelos de lenguaje a gran escala.
English
Recent advances in Large Reasoning Models (LRMs) trained with Long
Chain-of-Thought (Long CoT) reasoning have demonstrated remarkable cross-domain
generalization capabilities. However, the underlying mechanisms supporting such
transfer remain poorly understood. We hypothesize that cross-domain
generalization arises from shared abstract reasoning prototypes -- fundamental
reasoning patterns that capture the essence of problems across domains. These
prototypes minimize the nuances of the representation, revealing that seemingly
diverse tasks are grounded in shared reasoning structures.Based on this
hypothesis, we propose ProtoReasoning, a framework that enhances the reasoning
ability of LLMs by leveraging scalable and verifiable prototypical
representations (Prolog for logical reasoning, PDDL for
planning).ProtoReasoning features: (1) an automated prototype construction
pipeline that transforms problems into corresponding prototype representations;
(2) a comprehensive verification system providing reliable feedback through
Prolog/PDDL interpreters; (3) the scalability to synthesize problems
arbitrarily within prototype space while ensuring correctness. Extensive
experiments show that ProtoReasoning achieves 4.7% improvement over baseline
models on logical reasoning (Enigmata-Eval), 6.3% improvement on planning
tasks, 4.0% improvement on general reasoning (MMLU) and 1.0% on mathematics
(AIME24). Significantly, our ablation studies confirm that learning in
prototype space also demonstrates enhanced generalization to structurally
similar problems compared to training solely on natural language
representations, validating our hypothesis that reasoning prototypes serve as
the foundation for generalizable reasoning in large language models.