ChatPaper.aiChatPaper

Transformers zijn Multi-State RNN's.

Transformers are Multi-State RNNs

January 11, 2024
Auteurs: Matanel Oren, Michael Hassid, Yossi Adi, Roy Schwartz
cs.AI

Samenvatting

Transformers worden beschouwd als conceptueel verschillend vergeleken met de vorige generatie state-of-the-art NLP-modellen - recurrente neurale netwerken (RNN's). In dit werk tonen we aan dat decoder-only transformers in feite kunnen worden geconceptualiseerd als oneindige multi-state RNN's - een RNN-variant met een onbeperkte grootte van de verborgen toestand. We laten verder zien dat voorgetrainde transformers kunnen worden omgezet in eindige multi-state RNN's door de grootte van hun verborgen toestand vast te leggen. We observeren dat verschillende bestaande technieken voor het comprimeren van transformer-caches kunnen worden gezien als dergelijke conversiebeleidsregels, en introduceren een nieuw beleid, TOVA, dat eenvoudiger is vergeleken met deze beleidsregels. Onze experimenten met verschillende taken op lange termijn geven aan dat TOVA alle andere baseline-beleidsregels overtreft, terwijl het bijna op hetzelfde niveau presteert als het volledige (oneindige) model, en in sommige gevallen slechts 1{8} van de oorspronkelijke cache-grootte gebruikt. Onze resultaten geven aan dat transformer-decoder LLM's in de praktijk vaak gedragen als RNN's. Ze bieden ook de mogelijkheid om een van hun meest pijnlijke computationele knelpunten te verlichten - de grootte van hun cachegeheugen. We maken onze code openbaar beschikbaar op https://github.com/schwartz-lab-NLP/TOVA.
English
Transformers are considered conceptually different compared to the previous generation of state-of-the-art NLP models - recurrent neural networks (RNNs). In this work, we demonstrate that decoder-only transformers can in fact be conceptualized as infinite multi-state RNNs - an RNN variant with unlimited hidden state size. We further show that pretrained transformers can be converted into finite multi-state RNNs by fixing the size of their hidden state. We observe that several existing transformers cache compression techniques can be framed as such conversion policies, and introduce a novel policy, TOVA, which is simpler compared to these policies. Our experiments with several long range tasks indicate that TOVA outperforms all other baseline policies, while being nearly on par with the full (infinite) model, and using in some cases only 1{8} of the original cache size. Our results indicate that transformer decoder LLMs often behave in practice as RNNs. They also lay out the option of mitigating one of their most painful computational bottlenecks - the size of their cache memory. We publicly release our code at https://github.com/schwartz-lab-NLP/TOVA.
PDF395February 8, 2026