ChatPaper.aiChatPaper

기억 캐싱: 성장하는 기억을 갖춘 RNN

Memory Caching: RNNs with Growing Memory

February 27, 2026
저자: Ali Behrouz, Zeman Li, Yuan Deng, Peilin Zhong, Meisam Razaviyayn, Vahab Mirrokni
cs.AI

초록

트랜스포머는 문맥 길이에 따라 확장되는 증가하는 메모리 용량 덕분에 최근 시퀀스 모델링 분야의 대부분의 발전을 이끌어 온 사실상의 핵심 구조로 자리 잡았습니다. 이는 검색 작업에는 적합할 수 있지만, 2차 복잡도를 초래하여 최근 연구들에서는 실행 가능한 2차 미만의 순환 대안 모델들을 탐구하도록 동기를 부여했습니다. 다양한 분야에서 예비 결과가 유망하게 나타났음에도 불구하고, 이러한 순환 구조는 주로 고정 크기 메모리로 인해 회수 중심 작업에서 트랜스포머보다 성능이 낮습니다. 본 논문에서는 메모리 상태(일명 은닉 상태)의 체크포인트를 캐싱함으로써 순환 모델을 향상시키는 간단하면서 효과적인 기법인 메모리 캐싱(MC)을 소개합니다. 메모리 캐싱은 RNN의 효과적인 메모리 용량이 시퀀스 길이에 따라 증가하도록 하여, RNN의 고정 메모리(즉, O(L) 복잡도)와 트랜스포머의 증가 메모리(즉, O(L^2) 복잡도) 사이를 보간하는 유연한 절충점을 제공합니다. 우리는 게이트 집계 및 희소 선택적 메커니즘을 포함한 MC의 네 가지 변형을 제안하고, 선형 및 심층 메모리 모듈 모두에 대한 함의를 논의합니다. 언어 모델링 및 장문맥 이해 작업에 대한 실험 결과는 MC가 순환 모델의 성능을 향상시켜 그 효과성을 뒷받침합니다. 문맥 내 회수 작업의 결과는 트랜스포머가 최고의 정확도를 달성하는 반면, 우리의 MC 변형들은 경쟁력 있는 성능을 보여주며 트랜스포머와의 격차를 줄이고 최신 순환 모델들보다 더 나은 성능을 보임을 나타냅니다.
English
Transformers have been established as the de-facto backbones for most recent advances in sequence modeling, mainly due to their growing memory capacity that scales with the context length. While plausible for retrieval tasks, it causes quadratic complexity and so has motivated recent studies to explore viable subquadratic recurrent alternatives. Despite showing promising preliminary results in diverse domains, such recurrent architectures underperform Transformers in recall-intensive tasks, often attributed to their fixed-size memory. In this paper, we introduce Memory Caching (MC), a simple yet effective technique that enhances recurrent models by caching checkpoints of their memory states (a.k.a. hidden states). Memory Caching allows the effective memory capacity of RNNs to grow with sequence length, offering a flexible trade-off that interpolates between the fixed memory (i.e., O(L) complexity) of RNNs and the growing memory (i.e., O(L^2) complexity) of Transformers. We propose four variants of MC, including gated aggregation and sparse selective mechanisms, and discuss their implications on both linear and deep memory modules. Our experimental results on language modeling, and long-context understanding tasks show that MC enhances the performance of recurrent models, supporting its effectiveness. The results of in-context recall tasks indicate that while Transformers achieve the best accuracy, our MC variants show competitive performance, close the gap with Transformers, and performs better than state-of-the-art recurrent models.
PDF71March 7, 2026