ChatPaper.aiChatPaper

ReMamba: Dotare Mamba di un Modello Efficace per la Modellazione di Lunghe Sequenze

ReMamba: Equip Mamba with Effective Long-Sequence Modeling

August 28, 2024
Autori: Danlong Yuan, Jiahao Liu, Bei Li, Huishuai Zhang, Jingang Wang, Xunliang Cai, Dongyan Zhao
cs.AI

Abstract

Mentre l'architettura Mamba dimostra una superiore efficienza inferenziale e prestazioni competitive su compiti di elaborazione del linguaggio naturale (NLP) a breve contesto, le prove empiriche suggeriscono che la sua capacità di comprendere contesti lunghi sia limitata rispetto ai modelli basati su trasformatori. In questo studio, investighiamo le problematiche di efficienza dei contesti lunghi dei modelli Mamba e proponiamo ReMamba, che potenzia la capacità di Mamba di comprendere contesti lunghi. ReMamba incorpora tecniche di compressione selettiva e adattamento all'interno di un processo di rinnovamento a due fasi, con un costo di inferenza aggiuntivo minimo. I risultati sperimentali sui benchmark LongBench e L-Eval dimostrano l'efficacia di ReMamba, migliorando rispettivamente del 3,2 e 1,6 punti rispetto alle baselines e raggiungendo prestazioni quasi alla pari con modelli trasformatori della stessa dimensione.
English
While the Mamba architecture demonstrates superior inference efficiency and competitive performance on short-context natural language processing (NLP) tasks, empirical evidence suggests its capacity to comprehend long contexts is limited compared to transformer-based models. In this study, we investigate the long-context efficiency issues of the Mamba models and propose ReMamba, which enhances Mamba's ability to comprehend long contexts. ReMamba incorporates selective compression and adaptation techniques within a two-stage re-forward process, incurring minimal additional inference costs overhead. Experimental results on the LongBench and L-Eval benchmarks demonstrate ReMamba's efficacy, improving over the baselines by 3.2 and 1.6 points, respectively, and attaining performance almost on par with same-size transformer models.
PDF122November 16, 2024