ChatPaper.aiChatPaper

Compresión del Banco de Memoria para la Adaptación Continua de Modelos de Lenguaje a Gran Escala

Memory Bank Compression for Continual Adaptation of Large Language Models

January 2, 2026
Autores: Thomas Katraouras, Dimitrios Rafailidis
cs.AI

Resumen

Los Modelos de Lenguaje Grandes (LLM) se han convertido en un pilar fundamental para muchas aplicaciones cotidianas. Sin embargo, a medida que los datos evolucionan, su conocimiento se vuelve rápidamente obsoleto. El aprendizaje continuo tiene como objetivo actualizar los LLM con nueva información sin borrar el conocimiento adquirido previamente. Aunque métodos como el ajuste fino completo pueden incorporar nuevos datos, son computacionalmente costosos y propensos al olvido catastrófico, donde el conocimiento previo se sobrescribe. Los enfoques aumentados con memoria abordan este problema equipando a los LLM con un banco de memoria, es decir, un módulo de memoria externo que almacena información para su uso futuro. Sin embargo, estos métodos enfrentan una limitación crítica; en particular, el banco de memoria crece constantemente en escenarios del mundo real cuando llegan flujos de datos a gran escala. En este artículo, proponemos MBC, un modelo que comprime el banco de memoria mediante una estrategia de optimización de libro de códigos durante el aprendizaje de adaptación en línea. Para garantizar un aprendizaje estable, también introducimos un mecanismo de reinicio en línea que previene el colapso del libro de códigos. Además, empleamos Key-Value Low-Rank Adaptation en las capas de atención del LLM, permitiendo una utilización eficiente de las representaciones de memoria comprimidas. Los experimentos con conjuntos de datos de referencia de preguntas y respuestas demuestran que MBC reduce el tamaño del banco de memoria a un 0.3% en comparación con el baseline más competitivo, manteniendo una alta precisión de retención durante el aprendizaje de adaptación en línea. Nuestro código está disponible públicamente en https://github.com/Thomkat/MBC.
English
Large Language Models (LLMs) have become a mainstay for many everyday applications. However, as data evolve their knowledge quickly becomes outdated. Continual learning aims to update LLMs with new information without erasing previously acquired knowledge. Although methods such as full fine-tuning can incorporate new data, they are computationally expensive and prone to catastrophic forgetting, where prior knowledge is overwritten. Memory-augmented approaches address this by equipping LLMs with a memory bank, that is an external memory module which stores information for future use. However, these methods face a critical limitation, in particular, the memory bank constantly grows in the real-world scenario when large-scale data streams arrive. In this paper, we propose MBC, a model that compresses the memory bank through a codebook optimization strategy during online adaptation learning. To ensure stable learning, we also introduce an online resetting mechanism that prevents codebook collapse. In addition, we employ Key-Value Low-Rank Adaptation in the attention layers of the LLM, enabling efficient utilization of the compressed memory representations. Experiments with benchmark question-answering datasets demonstrate that MBC reduces the memory bank size to 0.3% when compared against the most competitive baseline, while maintaining high retention accuracy during online adaptation learning. Our code is publicly available at https://github.com/Thomkat/MBC.
PDF01January 17, 2026