ChatPaper.aiChatPaper

Wanneer Gedachten Feiten Ontmoeten: Herbruikbare Redenering voor Taalmodellen met Lange Context

When Thoughts Meet Facts: Reusable Reasoning for Long-Context LMs

October 8, 2025
Auteurs: Soyeong Jeong, Taehee Jung, Sung Ju Hwang, Joo-Kyung Kim, Dongyeop Kang
cs.AI

Samenvatting

Recente Long-Context Taalmodellen (LCLMs) kunnen honderdduizenden tokens in een enkele prompt verwerken, wat nieuwe mogelijkheden biedt voor kennisintensieve multi-hop redenering door grote sets opgehaalde documenten te integreren of, in sommige gevallen, direct alle benodigde informatie. Echter, simpelweg meer documenten in het contextvenster voeren, faalt om vast te leggen hoe bewijs met elkaar verbonden zou moeten worden. Wij adresseren deze kloof met gedachtesjablonen, die redenering herformuleren als herbruikbare gedachtencaches, afgeleid van eerdere probleemoplossingstrajecten, die structureren hoe bewijs wordt gecombineerd en multi-hop inferentie begeleiden met feitelijke documenten. Om deze sjablonen effectief te houden, stellen we een update-strategie voor die sjablonen afgeleid van trainingsdata iteratief verfijnt door middel van feedback in natuurlijke taal. Over diverse benchmarks en LCLM-families heen levert onze aanpak consistente verbeteringen op ten opzichte van sterke basislijnen, zowel in opzoekingsgebaseerde als opzoekingsvrije settings. Bovendien tonen we aan dat geoptimaliseerde sjablonen kunnen worden gedistilleerd in kleinere open-source modellen, wat de brede toepasbaarheid en transparante hergebruik van redenering aantoont. Wij verwijzen naar ons framework als Thought Template Augmented LCLMs (ToTAL).
English
Recent Long-Context Language Models (LCLMs) can process hundreds of thousands of tokens in a single prompt, enabling new opportunities for knowledge-intensive multi-hop reasoning by integrating large sets of retrieved documents or, in some cases, directly all necessary information. However, simply feeding more documents into the context window fails to capture how evidence should be connected. We address this gap with thought templates, which recast reasoning as reusable thought caches, derived from prior problem solving traces, structuring how evidence is combined and guiding multi-hop inference with factual documents. To keep these templates effective, we propose an update strategy that iteratively refines templates derived from training data through natural-language feedback. Across diverse benchmarks and LCLM families, our approach delivers consistent gains over strong baselines in both retrieval-based and retrieval-free settings. Furthermore, we show that optimized templates can be distilled into smaller open-source models, demonstrating its broad applicability and transparent reasoning reuse. We refer to our framework as Thought Template Augmented LCLMs (ToTAL).
PDF442October 10, 2025