Fundamentele Redeneerparadigma's Induceren Domeinoverstijgende Generalisatie in Taalmodellen
Fundamental Reasoning Paradigms Induce Out-of-Domain Generalization in Language Models
February 9, 2026
Auteurs: Mingzi Cao, Xingwei Tan, Mahmud Akhter, Marco Valentino, Maria Liakata, Xi Wang, Nikolaos Aletras
cs.AI
Samenvatting
Deductie, inductie en abductie zijn fundamentele redeneerparadigma's, de kern van het menselijk logisch denken. Hoewel het verbeteren van het redeneervermogen van Large Language Models (LLM's) aanzienlijke onderzoeksinspanningen heeft aangetrokken, is de mate waarin deze fundamentele paradigma's generalisatie induceren nog niet systematisch onderzocht. In deze studie belichten we hoe de wisselwerking tussen deze kernparadigma's het redeneergedrag van LLM's beïnvloedt. Hiertoe verzamelen we eerst een nieuwe dataset van redeneertrajecten van symbolische taken, elk gericht op een van de drie fundamentele paradigma's, om te abstraheren van concrete wereldkennis. Vervolgens onderzoeken we effectieve manieren om deze vaardigheden in LLM's in te brengen. We experimenteren met een reeks methoden, waaronder eenvoudige fine-tuning en complexere benaderingen om de modeldiepte te vergroten of een dicht model om te zetten in een mixture-of-experts. We evalueren de geïnduceerde modellen uitgebreid op realistische taken buiten het oorspronkelijke domein, die volledig in natuurlijke taal zijn geformuleerd en real-world kennis bevatten. Onze resultaten onthullen dat onze aanpak sterke generaliseerbaarheid oplevert met aanzienlijke prestatieverbeteringen (tot 14,60) over realistische taken heen.
English
Deduction, induction, and abduction are fundamental reasoning paradigms, core for human logical thinking. Although improving Large Language Model (LLM) reasoning has attracted significant research efforts, the extent to which the fundamental paradigms induce generalization has yet to be systematically explored. In this study, we shed light on how the interplay between these core paradigms influences LLMs' reasoning behavior. To this end, we first collect a new dataset of reasoning trajectories from symbolic tasks, each targeting one of the three fundamental paradigms, to abstract from concrete world knowledge. Then, we investigate effective ways for inducing these skills into LLMs. We experiment with a battery of methods including simple fine-tuning, and more complex approaches to increase model depth, or transform a dense model to a mixture-of-experts. We comprehensively evaluate induced models on realistic out-of-domain tasks, that are entirely formulated in natural language and contain real-world knowledge. Our results reveal that our approach yields strong generalizability with substantial performance gains (up to 14.60) across realistic tasks.