ChatPaper.aiChatPaper

Dynamisches Langzeitkontextverständnis über komprimiertem Gedächtnis mittels End-to-End-Verstärkungslernen

Dynamic Long Context Reasoning over Compressed Memory via End-to-End Reinforcement Learning

February 9, 2026
papers.authors: Zhuoen Chen, Dongfang Li, Meishan Zhang, Baotian Hu, Min Zhang
cs.AI

papers.abstract

Große Sprachmodelle (LLMs) stehen vor erheblichen Herausforderungen bei der Verarbeitung langer Kontexte, darunter quadratische Rechenkosten, Informationsvergessen und die kontextbedingte Fragmentierung, die retrieval-augmentierter Generierung (RAG) inhärent ist. Wir schlagen ein kognitiv inspiriertes Framework für effiziente Inferenz bei langen Kontexten vor, das auf blockweiser Kompression und selektivem Gedächtnisabruf basiert, anstatt alle Roh-Token zu verarbeiten. Das Framework segmentiert lange Eingaben in Blöcke und kodiert jeden Block mittels eines trainierten Kompressors in komprimierte Gedächtnisrepräsentationen. Ein Gating-Modul wählt dynamisch relevante Gedächtnisblöcke aus, die dann iterativ von einem Reasoning-Modul mit sich entwickelndem Arbeitsgedächtnis verarbeitet werden, um Downstream-Aufgaben zu lösen. Kompressor und Reasoner werden gemeinsam durch End-to-End-Verstärkungslernen optimiert, während das Gating-Modul separat als Klassifikator trainiert wird. Experimentelle Ergebnisse zeigen, dass die vorgeschlagene Methode auf Multi-Hop-Reasoning-Benchmarks wie RULER-HQA eine konkurrenzfähige Genauigkeit erreicht, die Kontextlänge von 7K auf 1,75M Token extrapoliert und im Vergleich zu starken Long-Context-Baselines eine günstige Genauigkeits-Effizienz-Abwägung bietet. Insbesondere erreicht sie eine bis zu 2-fache Reduzierung der Spitzen-GPU-Speichernutzung und eine 6-fache Beschleunigung der Inferenz gegenüber MemAgent.
English
Large Language Models (LLMs) face significant challenges in long-context processing, including quadratic computational costs, information forgetting, and the context fragmentation inherent in retrieval-augmented generation (RAG). We propose a cognitively inspired framework for efficient long-context inference based on chunk-wise compression and selective memory recall, rather than processing all raw tokens. The framework segments long inputs into chunks and encodes each chunk into compressed memory representations using a learned compressor. A gating module dynamically selects relevant memory blocks, which are then iteratively processed by a reasoning module with an evolving working memory to solve downstream tasks. The compressor and reasoner are jointly optimized via end-to-end reinforcement learning, while the gating module is trained separately as a classifier. Experimental results show that the proposed method achieves competitive accuracy on multi-hop reasoning benchmarks such as RULER-HQA, extrapolates context length from 7K to 1.75M tokens, and offers a favorable accuracy-efficiency trade-off compared to strong long-context baselines. In particular, it achieves up to a 2 times reduction in peak GPU memory usage and a 6 times inference speedup over MemAgent.
PDF91February 12, 2026