ChatPaper.aiChatPaper

I Transformers sono RNN a Multi-Stato.

Transformers are Multi-State RNNs

January 11, 2024
Autori: Matanel Oren, Michael Hassid, Yossi Adi, Roy Schwartz
cs.AI

Abstract

I Transformer sono considerati concettualmente diversi rispetto alla precedente generazione di modelli NLP all'avanguardia - le reti neurali ricorrenti (RNN). In questo lavoro, dimostriamo che i Transformer con solo decoder possono in realtà essere concettualizzati come RNN multi-stato infinite - una variante di RNN con dimensione illimitata dello stato nascosto. Mostriamo inoltre che i Transformer pre-addestrati possono essere convertiti in RNN multi-stato finite fissando la dimensione del loro stato nascosto. Osserviamo che diverse tecniche esistenti di compressione della cache dei Transformer possono essere inquadrate come tali politiche di conversione, e introduciamo una nuova politica, TOVA, che è più semplice rispetto a queste politiche. I nostri esperimenti con diversi task a lungo raggio indicano che TOVA supera tutte le altre politiche di riferimento, pur essendo quasi alla pari con il modello completo (infinito), e utilizzando in alcuni casi solo 1/8 della dimensione originale della cache. I nostri risultati indicano che i modelli linguistici con decoder Transformer spesso si comportano nella pratica come RNN. Essi delineano inoltre la possibilità di mitigare uno dei loro più dolorosi colli di bottiglia computazionali - la dimensione della loro memoria cache. Rilasciamo pubblicamente il nostro codice all'indirizzo https://github.com/schwartz-lab-NLP/TOVA.
English
Transformers are considered conceptually different compared to the previous generation of state-of-the-art NLP models - recurrent neural networks (RNNs). In this work, we demonstrate that decoder-only transformers can in fact be conceptualized as infinite multi-state RNNs - an RNN variant with unlimited hidden state size. We further show that pretrained transformers can be converted into finite multi-state RNNs by fixing the size of their hidden state. We observe that several existing transformers cache compression techniques can be framed as such conversion policies, and introduce a novel policy, TOVA, which is simpler compared to these policies. Our experiments with several long range tasks indicate that TOVA outperforms all other baseline policies, while being nearly on par with the full (infinite) model, and using in some cases only 1{8} of the original cache size. Our results indicate that transformer decoder LLMs often behave in practice as RNNs. They also lay out the option of mitigating one of their most painful computational bottlenecks - the size of their cache memory. We publicly release our code at https://github.com/schwartz-lab-NLP/TOVA.
PDF395February 8, 2026