ProtoReasoning: Protótipos como Base para Raciocínio Generalizável em LLMs
ProtoReasoning: Prototypes as the Foundation for Generalizable Reasoning in LLMs
June 18, 2025
Autores: Feng He, Zijun Chen, Xinnian Liang, Tingting Ma, Yunqi Qiu, Shuangzhi Wu, Junchi Yan
cs.AI
Resumo
Avanços recentes em Modelos de Raciocínio de Grande Escala (LRMs) treinados com Raciocínio de Cadeia Longa de Pensamento (Long CoT) demonstraram capacidades notáveis de generalização entre domínios. No entanto, os mecanismos subjacentes que suportam essa transferência permanecem pouco compreendidos. Nossa hipótese é que a generalização entre domínios surge de protótipos abstratos de raciocínio compartilhados — padrões fundamentais de raciocínio que capturam a essência dos problemas em diferentes domínios. Esses protótipos minimizam as nuances da representação, revelando que tarefas aparentemente diversas estão fundamentadas em estruturas de raciocínio compartilhadas. Com base nessa hipótese, propomos o ProtoReasoning, um framework que aprimora a capacidade de raciocínio de LLMs ao aproveitar representações prototípicas escaláveis e verificáveis (Prolog para raciocínio lógico, PDDL para planejamento). O ProtoReasoning apresenta: (1) um pipeline automatizado de construção de protótipos que transforma problemas em representações prototípicas correspondentes; (2) um sistema abrangente de verificação que fornece feedback confiável por meio de interpretadores Prolog/PDDL; (3) a escalabilidade para sintetizar problemas arbitrariamente dentro do espaço de protótipos, garantindo a correção. Experimentos extensivos mostram que o ProtoReasoning alcança uma melhoria de 4,7% em relação aos modelos de base em raciocínio lógico (Enigmata-Eval), 6,3% em tarefas de planejamento, 4,0% em raciocínio geral (MMLU) e 1,0% em matemática (AIME24). Significativamente, nossos estudos de ablação confirmam que o aprendizado no espaço de protótipos também demonstra uma generalização aprimorada para problemas estruturalmente semelhantes em comparação com o treinamento exclusivamente em representações de linguagem natural, validando nossa hipótese de que os protótipos de raciocínio servem como base para o raciocínio generalizável em grandes modelos de linguagem.
English
Recent advances in Large Reasoning Models (LRMs) trained with Long
Chain-of-Thought (Long CoT) reasoning have demonstrated remarkable cross-domain
generalization capabilities. However, the underlying mechanisms supporting such
transfer remain poorly understood. We hypothesize that cross-domain
generalization arises from shared abstract reasoning prototypes -- fundamental
reasoning patterns that capture the essence of problems across domains. These
prototypes minimize the nuances of the representation, revealing that seemingly
diverse tasks are grounded in shared reasoning structures.Based on this
hypothesis, we propose ProtoReasoning, a framework that enhances the reasoning
ability of LLMs by leveraging scalable and verifiable prototypical
representations (Prolog for logical reasoning, PDDL for
planning).ProtoReasoning features: (1) an automated prototype construction
pipeline that transforms problems into corresponding prototype representations;
(2) a comprehensive verification system providing reliable feedback through
Prolog/PDDL interpreters; (3) the scalability to synthesize problems
arbitrarily within prototype space while ensuring correctness. Extensive
experiments show that ProtoReasoning achieves 4.7% improvement over baseline
models on logical reasoning (Enigmata-Eval), 6.3% improvement on planning
tasks, 4.0% improvement on general reasoning (MMLU) and 1.0% on mathematics
(AIME24). Significantly, our ablation studies confirm that learning in
prototype space also demonstrates enhanced generalization to structurally
similar problems compared to training solely on natural language
representations, validating our hypothesis that reasoning prototypes serve as
the foundation for generalizable reasoning in large language models.