ChatPaper.aiChatPaper

DenseMamba: Modelos de Espaço de Estados com Conexão Oculta Densa para Modelos de Linguagem de Grande Escala Eficientes

DenseMamba: State Space Models with Dense Hidden Connection for Efficient Large Language Models

February 26, 2024
Autores: Wei He, Kai Han, Yehui Tang, Chengcheng Wang, Yujie Yang, Tianyu Guo, Yunhe Wang
cs.AI

Resumo

Os grandes modelos de linguagem (LLMs) enfrentam um desafio significativo devido aos requisitos excessivos de computação e memória da arquitetura Transformer, comumente utilizada. Embora os modelos de espaço de estados (SSM) representem um novo tipo de arquitetura de rede fundamental com menor complexidade computacional, seu desempenho ainda não rivaliza plenamente com o dos Transformers. Este artigo introduz o DenseSSM, uma abordagem inovadora para aprimorar o fluxo de informações ocultas entre as camadas nos SSMs. Ao integrar seletivamente os estados ocultos das camadas superficiais em camadas mais profundas, o DenseSSM retém informações detalhadas cruciais para a saída final. As conexões densas do DenseSSM ainda mantêm a paralelizabilidade no treinamento e a eficiência na inferência. O método proposto pode ser amplamente aplicável a diversos tipos de SSM, como RetNet e Mamba. Com tamanho de modelo similar, o DenseSSM alcança melhorias significativas, exemplificado pelo DenseRetNet, que supera o RetNet original com ganhos de até 5% em precisão em benchmarks públicos.
English
Large language models (LLMs) face a daunting challenge due to the excessive computational and memory requirements of the commonly used Transformer architecture. While state space model (SSM) is a new type of foundational network architecture offering lower computational complexity, their performance has yet to fully rival that of Transformers. This paper introduces DenseSSM, a novel approach to enhance the flow of hidden information between layers in SSMs. By selectively integrating shallowlayer hidden states into deeper layers, DenseSSM retains fine-grained information crucial for the final output. Dense connections enhanced DenseSSM still maintains the training parallelizability and inference efficiency. The proposed method can be widely applicable to various SSM types like RetNet and Mamba. With similar model size, DenseSSM achieves significant improvements, exemplified by DenseRetNet outperforming the original RetNet with up to 5% accuracy improvement on public benchmarks.
PDF192December 15, 2024