ChatPaper.aiChatPaper

Razonamiento Dinámico de Contexto Largo sobre Memoria Comprimida mediante Aprendizaje por Refuerzo de Extremo a Extremo

Dynamic Long Context Reasoning over Compressed Memory via End-to-End Reinforcement Learning

February 9, 2026
Autores: Zhuoen Chen, Dongfang Li, Meishan Zhang, Baotian Hu, Min Zhang
cs.AI

Resumen

Los Modelos de Lenguaje Grandes (LLM) enfrentan desafíos significativos en el procesamiento de contextos largos, incluyendo costos computacionales cuadráticos, olvido de información y la fragmentación contextual inherente a la generación aumentada por recuperación (RAG). Proponemos un marco de trabajo inspirado en la cognición para la inferencia eficiente en contextos largos, basado en la compresión por fragmentos y la recuperación selectiva de memoria, en lugar de procesar todos los tokens en bruto. El marco segmenta las entradas largas en fragmentos y codifica cada uno en representaciones de memoria comprimidas utilizando un compresor aprendido. Un módulo de compuerta selecciona dinámicamente bloques de memoria relevantes, que luego son procesados iterativamente por un módulo de razonamiento con una memoria de trabajo en evolución para resolver tareas posteriores. El compresor y el razonador se optimizan conjuntamente mediante aprendizaje por refuerzo de extremo a extremo, mientras que el módulo de compuerta se entrena por separado como un clasificador. Los resultados experimentales muestran que el método propuesto logra una precisión competitiva en benchmarks de razonamiento multi-etapa como RULER-HQA, extrapola la longitud del contexto de 7K a 1.75M tokens, y ofrece un equilibrio favorable entre precisión y eficiencia en comparación con líneas base sólidas para contextos largos. En particular, logra una reducción de hasta 2 veces en el uso máximo de memoria GPU y una aceleración de la inferencia 6 veces mayor que MemAgent.
English
Large Language Models (LLMs) face significant challenges in long-context processing, including quadratic computational costs, information forgetting, and the context fragmentation inherent in retrieval-augmented generation (RAG). We propose a cognitively inspired framework for efficient long-context inference based on chunk-wise compression and selective memory recall, rather than processing all raw tokens. The framework segments long inputs into chunks and encodes each chunk into compressed memory representations using a learned compressor. A gating module dynamically selects relevant memory blocks, which are then iteratively processed by a reasoning module with an evolving working memory to solve downstream tasks. The compressor and reasoner are jointly optimized via end-to-end reinforcement learning, while the gating module is trained separately as a classifier. Experimental results show that the proposed method achieves competitive accuracy on multi-hop reasoning benchmarks such as RULER-HQA, extrapolates context length from 7K to 1.75M tokens, and offers a favorable accuracy-efficiency trade-off compared to strong long-context baselines. In particular, it achieves up to a 2 times reduction in peak GPU memory usage and a 6 times inference speedup over MemAgent.
PDF91February 12, 2026