Geheugenbankcompressie voor continue aanpassing van grote taalmodel(len)
Memory Bank Compression for Continual Adaptation of Large Language Models
January 2, 2026
Auteurs: Thomas Katraouras, Dimitrios Rafailidis
cs.AI
Samenvatting
Grote Taalmodellen (GTM'en) zijn een vaste waarde geworden in veel alledaagse toepassingen. Naarmate gegevens zich echter ontwikkelen, raakt hun kennis snel verouderd. Continu leren heeft als doel GTM'en bij te werken met nieuwe informatie zonder eerder verworven kennis te wissen. Hoewel methoden zoals volledige *fine-tuning* nieuwe gegevens kunnen integreren, zijn ze rekenkundig kostbaar en gevoelig voor catastrofaal vergeten, waarbij eerdere kennis wordt overschreven. Geheugen-aangevulde benaderingen pakken dit aan door GTM'en uit te rusten met een geheugenbank, een externe geheugenmodule die informatie opslaat voor toekomstig gebruik. Deze methoden kampen echter met een kritische beperking: met name in een real-world scenario groeit de geheugenbank constant wanneer grootschalige gegevensstromen arriveren. In dit artikel stellen we MBC voor, een model dat de geheugenbank comprimeert via een *codebook*-optimalisatiestrategie tijdens online adaptatieleren. Om stabiel leren te garanderen, introduceren we ook een online reset-mechanisme dat *codebook*-collaps voorkomt. Daarnaast passen we Key-Value Low-Rank Adaptation toe in de aandachtslagen van het GTM, waardoor efficiënt gebruik van de gecomprimeerde geheugenrepresentaties mogelijk wordt. Experimenten met benchmark vraag-antwoorddatasets tonen aan dat MBC de grootte van de geheugenbank reduceert tot 0.3% in vergelijking met de meest competitieve baseline, terwijl een hoge retentie-accuraatheid tijdens online adaptatieleren behouden blijft. Onze code is openbaar beschikbaar op https://github.com/Thomkat/MBC.
English
Large Language Models (LLMs) have become a mainstay for many everyday applications. However, as data evolve their knowledge quickly becomes outdated. Continual learning aims to update LLMs with new information without erasing previously acquired knowledge. Although methods such as full fine-tuning can incorporate new data, they are computationally expensive and prone to catastrophic forgetting, where prior knowledge is overwritten. Memory-augmented approaches address this by equipping LLMs with a memory bank, that is an external memory module which stores information for future use. However, these methods face a critical limitation, in particular, the memory bank constantly grows in the real-world scenario when large-scale data streams arrive. In this paper, we propose MBC, a model that compresses the memory bank through a codebook optimization strategy during online adaptation learning. To ensure stable learning, we also introduce an online resetting mechanism that prevents codebook collapse. In addition, we employ Key-Value Low-Rank Adaptation in the attention layers of the LLM, enabling efficient utilization of the compressed memory representations. Experiments with benchmark question-answering datasets demonstrate that MBC reduces the memory bank size to 0.3% when compared against the most competitive baseline, while maintaining high retention accuracy during online adaptation learning. Our code is publicly available at https://github.com/Thomkat/MBC.