ChatPaper.aiChatPaper

Расслабленные рекурсивные трансформеры: эффективное разделение параметров с помощью механизма Layer-wise LoRA

Relaxed Recursive Transformers: Effective Parameter Sharing with Layer-wise LoRA

October 28, 2024
Авторы: Sangmin Bae, Adam Fisch, Hrayr Harutyunyan, Ziwei Ji, Seungyeon Kim, Tal Schuster
cs.AI

Аннотация

Большие языковые модели (LLM) дорого стоит внедрять. Общий параметр предлагает возможный путь к уменьшению их размера и стоимости, однако его эффективность в современных LLM остается довольно ограниченной. В данной работе мы пересматриваем "связывание слоев" как форму общего параметра в трансформерах и представляем новые методы преобразования существующих LLM в более компактные "Рекурсивные Трансформеры", которые обмениваются параметрами между слоями с минимальной потерей производительности. Здесь наши Рекурсивные Трансформеры эффективно инициализируются из стандартных предварительно обученных трансформеров, но используют только один блок уникальных слоев, который затем повторяется несколько раз в цикле. Мы дополнительно улучшаем производительность, представляя Расслабленные Рекурсивные Трансформеры, которые добавляют гибкость к ограничению связывания слоев с помощью модулей адаптации низкого ранга по глубине (LoRA), сохраняя компактность общей модели. Мы показываем, что наши рекурсивные модели (например, рекурсивный Gemma 1B) превосходят как модели предварительного обучения аналогичного размера (например, TinyLlama 1.1B и Pythia 1B), так и базовые модели дистилляции знаний — и даже могут восстановить большую часть производительности оригинальной "полноразмерной" модели (например, Gemma 2B без общих параметров). Наконец, мы предлагаем Непрерывную Глубинную Пакетизацию, многообещающую новую парадигму вывода, обеспечиваемую Рекурсивным Трансформером при совмещении с ранним выходом. В теоретическом анализе мы показываем, что это имеет потенциал привести к значительному (2-3 раза) увеличению производительности вывода.
English
Large language models (LLMs) are expensive to deploy. Parameter sharing offers a possible path towards reducing their size and cost, but its effectiveness in modern LLMs remains fairly limited. In this work, we revisit "layer tying" as form of parameter sharing in Transformers, and introduce novel methods for converting existing LLMs into smaller "Recursive Transformers" that share parameters across layers, with minimal loss of performance. Here, our Recursive Transformers are efficiently initialized from standard pretrained Transformers, but only use a single block of unique layers that is then repeated multiple times in a loop. We further improve performance by introducing Relaxed Recursive Transformers that add flexibility to the layer tying constraint via depth-wise low-rank adaptation (LoRA) modules, yet still preserve the compactness of the overall model. We show that our recursive models (e.g., recursive Gemma 1B) outperform both similar-sized vanilla pretrained models (such as TinyLlama 1.1B and Pythia 1B) and knowledge distillation baselines -- and can even recover most of the performance of the original "full-size" model (e.g., Gemma 2B with no shared parameters). Finally, we propose Continuous Depth-wise Batching, a promising new inference paradigm enabled by the Recursive Transformer when paired with early exiting. In a theoretical analysis, we show that this has the potential to lead to significant (2-3x) gains in inference throughput.

Summary

AI-Generated Summary

PDF63November 16, 2024