ChatPaper.aiChatPaper

ProtoReasoning: Protótipos como Base para Raciocínio Generalizável em LLMs

ProtoReasoning: Prototypes as the Foundation for Generalizable Reasoning in LLMs

June 18, 2025
Autores: Feng He, Zijun Chen, Xinnian Liang, Tingting Ma, Yunqi Qiu, Shuangzhi Wu, Junchi Yan
cs.AI

Resumo

Avanços recentes em Modelos de Raciocínio de Grande Escala (LRMs) treinados com Raciocínio de Cadeia Longa de Pensamento (Long CoT) demonstraram capacidades notáveis de generalização entre domínios. No entanto, os mecanismos subjacentes que suportam essa transferência permanecem pouco compreendidos. Nossa hipótese é que a generalização entre domínios surge de protótipos abstratos de raciocínio compartilhados — padrões fundamentais de raciocínio que capturam a essência dos problemas em diferentes domínios. Esses protótipos minimizam as nuances da representação, revelando que tarefas aparentemente diversas estão fundamentadas em estruturas de raciocínio compartilhadas. Com base nessa hipótese, propomos o ProtoReasoning, um framework que aprimora a capacidade de raciocínio de LLMs ao aproveitar representações prototípicas escaláveis e verificáveis (Prolog para raciocínio lógico, PDDL para planejamento). O ProtoReasoning apresenta: (1) um pipeline automatizado de construção de protótipos que transforma problemas em representações prototípicas correspondentes; (2) um sistema abrangente de verificação que fornece feedback confiável por meio de interpretadores Prolog/PDDL; (3) a escalabilidade para sintetizar problemas arbitrariamente dentro do espaço de protótipos, garantindo a correção. Experimentos extensivos mostram que o ProtoReasoning alcança uma melhoria de 4,7% em relação aos modelos de base em raciocínio lógico (Enigmata-Eval), 6,3% em tarefas de planejamento, 4,0% em raciocínio geral (MMLU) e 1,0% em matemática (AIME24). Significativamente, nossos estudos de ablação confirmam que o aprendizado no espaço de protótipos também demonstra uma generalização aprimorada para problemas estruturalmente semelhantes em comparação com o treinamento exclusivamente em representações de linguagem natural, validando nossa hipótese de que os protótipos de raciocínio servem como base para o raciocínio generalizável em grandes modelos de linguagem.
English
Recent advances in Large Reasoning Models (LRMs) trained with Long Chain-of-Thought (Long CoT) reasoning have demonstrated remarkable cross-domain generalization capabilities. However, the underlying mechanisms supporting such transfer remain poorly understood. We hypothesize that cross-domain generalization arises from shared abstract reasoning prototypes -- fundamental reasoning patterns that capture the essence of problems across domains. These prototypes minimize the nuances of the representation, revealing that seemingly diverse tasks are grounded in shared reasoning structures.Based on this hypothesis, we propose ProtoReasoning, a framework that enhances the reasoning ability of LLMs by leveraging scalable and verifiable prototypical representations (Prolog for logical reasoning, PDDL for planning).ProtoReasoning features: (1) an automated prototype construction pipeline that transforms problems into corresponding prototype representations; (2) a comprehensive verification system providing reliable feedback through Prolog/PDDL interpreters; (3) the scalability to synthesize problems arbitrarily within prototype space while ensuring correctness. Extensive experiments show that ProtoReasoning achieves 4.7% improvement over baseline models on logical reasoning (Enigmata-Eval), 6.3% improvement on planning tasks, 4.0% improvement on general reasoning (MMLU) and 1.0% on mathematics (AIME24). Significantly, our ablation studies confirm that learning in prototype space also demonstrates enhanced generalization to structurally similar problems compared to training solely on natural language representations, validating our hypothesis that reasoning prototypes serve as the foundation for generalizable reasoning in large language models.
PDF353June 19, 2025