ProtoReasoning: Prototypen als Basis voor Generaliseerbaar Redeneren in LLM's
ProtoReasoning: Prototypes as the Foundation for Generalizable Reasoning in LLMs
June 18, 2025
Auteurs: Feng He, Zijun Chen, Xinnian Liang, Tingting Ma, Yunqi Qiu, Shuangzhi Wu, Junchi Yan
cs.AI
Samenvatting
Recente ontwikkelingen in Large Reasoning Models (LRMs) die zijn getraind met Long Chain-of-Thought (Long CoT) redenering hebben opmerkelijke cross-domein generalisatiecapaciteiten aangetoond. De onderliggende mechanismen die deze transfer ondersteunen, blijven echter slecht begrepen. Wij veronderstellen dat cross-domein generalisatie voortkomt uit gedeelde abstracte redeneerprototypen — fundamentele redeneerpatronen die de essentie van problemen over domeinen heen vastleggen. Deze prototypen minimaliseren de nuances van de representatie, waardoor duidelijk wordt dat schijnbaar diverse taken zijn geworteld in gedeelde redeneerstructuren. Op basis van deze hypothese stellen we ProtoReasoning voor, een raamwerk dat het redeneervermogen van LLMs verbetert door schaalbare en verifieerbare prototypische representaties te benutten (Prolog voor logisch redeneren, PDDL voor planning). ProtoReasoning kenmerkt zich door: (1) een geautomatiseerde pijplijn voor prototypeconstructie die problemen omzet in corresponderende prototypische representaties; (2) een uitgebreid verificatiesysteem dat betrouwbare feedback biedt via Prolog/PDDL-interpreters; (3) de schaalbaarheid om problemen willekeurig binnen de prototyperuimte te synthetiseren terwijl de correctheid wordt gewaarborgd. Uitgebreide experimenten tonen aan dat ProtoReasoning een verbetering van 4,7% behaalt ten opzichte van basismodellen voor logisch redeneren (Enigmata-Eval), 6,3% voor plannings taken, 4,0% voor algemeen redeneren (MMLU) en 1,0% voor wiskunde (AIME24). Belangrijk is dat onze ablatiestudies bevestigen dat leren in de prototyperuimte ook een verbeterde generalisatie naar structureel vergelijkbare problemen laat zien in vergelijking met training uitsluitend op natuurlijke taalrepresentaties, wat onze hypothese bevestigt dat redeneerprototypen de basis vormen voor generaliseerbaar redeneren in grote taalmodellen.
English
Recent advances in Large Reasoning Models (LRMs) trained with Long
Chain-of-Thought (Long CoT) reasoning have demonstrated remarkable cross-domain
generalization capabilities. However, the underlying mechanisms supporting such
transfer remain poorly understood. We hypothesize that cross-domain
generalization arises from shared abstract reasoning prototypes -- fundamental
reasoning patterns that capture the essence of problems across domains. These
prototypes minimize the nuances of the representation, revealing that seemingly
diverse tasks are grounded in shared reasoning structures.Based on this
hypothesis, we propose ProtoReasoning, a framework that enhances the reasoning
ability of LLMs by leveraging scalable and verifiable prototypical
representations (Prolog for logical reasoning, PDDL for
planning).ProtoReasoning features: (1) an automated prototype construction
pipeline that transforms problems into corresponding prototype representations;
(2) a comprehensive verification system providing reliable feedback through
Prolog/PDDL interpreters; (3) the scalability to synthesize problems
arbitrarily within prototype space while ensuring correctness. Extensive
experiments show that ProtoReasoning achieves 4.7% improvement over baseline
models on logical reasoning (Enigmata-Eval), 6.3% improvement on planning
tasks, 4.0% improvement on general reasoning (MMLU) and 1.0% on mathematics
(AIME24). Significantly, our ablation studies confirm that learning in
prototype space also demonstrates enhanced generalization to structurally
similar problems compared to training solely on natural language
representations, validating our hypothesis that reasoning prototypes serve as
the foundation for generalizable reasoning in large language models.