LongLoRA: Effizientes Feintuning von Large Language Models mit langem Kontext
LongLoRA: Efficient Fine-tuning of Long-Context Large Language Models
September 21, 2023
Autoren: Yukang Chen, Shengju Qian, Haotian Tang, Xin Lai, Zhijian Liu, Song Han, Jiaya Jia
cs.AI
Zusammenfassung
Wir präsentieren LongLoRA, einen effizienten Feinabstimmungsansatz, der die Kontextgrößen vortrainierter großer Sprachmodelle (LLMs) mit begrenztem Rechenaufwand erweitert. Typischerweise ist das Training von LLMs mit langen Kontextgrößen rechenintensiv und erfordert umfangreiche Trainingszeiten sowie GPU-Ressourcen. Zum Beispiel benötigt das Training mit einer Kontextlänge von 8192 16x mehr Rechenkosten in den Self-Attention-Schichten als bei einer Länge von 2048. In diesem Papier beschleunigen wir die Kontexterweiterung von LLMs in zwei Aspekten. Einerseits kann die Feinabstimmung des Modells effektiv und effizient durch spärliche lokale Aufmerksamkeit erfolgen, obwohl während der Inferenz eine dichte globale Aufmerksamkeit erforderlich ist. Die vorgeschlagene Shift-Short-Attention ermöglicht effektiv eine Kontexterweiterung und führt zu erheblichen Recheneinsparungen bei ähnlicher Leistung wie die Feinabstimmung mit herkömmlicher Aufmerksamkeit. Insbesondere kann sie mit nur zwei Codezeilen im Training implementiert werden, während sie in der Inferenz optional ist. Andererseits untersuchen wir das parameter-effiziente Feinabstimmungsregime für die Kontexterweiterung. Bemerkenswerterweise stellen wir fest, dass LoRA für die Kontexterweiterung gut funktioniert, vorausgesetzt, dass die Einbettungen und Normalisierungen trainierbar sind. LongLoRA zeigt starke empirische Ergebnisse bei verschiedenen Aufgaben auf LLaMA2-Modellen von 7B/13B bis 70B. LongLoRA erweitert den Kontext von LLaMA2 7B von 4k auf 100k oder von LLaMA2 70B auf 32k auf einer einzelnen 8x A100-Maschine. LongLoRA erweitert die Kontexte der Modelle, behält dabei ihre ursprünglichen Architekturen bei und ist mit den meisten bestehenden Techniken wie FlashAttention-2 kompatibel. Zusätzlich haben wir, um LongLoRA praktikabel zu machen, einen Datensatz, LongQA, für das überwachte Feinabstimmung gesammelt. Er enthält mehr als 3k lange Kontext-Frage-Antwort-Paare.
English
We present LongLoRA, an efficient fine-tuning approach that extends the
context sizes of pre-trained large language models (LLMs), with limited
computation cost. Typically, training LLMs with long context sizes is
computationally expensive, requiring extensive training hours and GPU
resources. For example, training on the context length of 8192 needs 16x
computational costs in self-attention layers as that of 2048. In this paper, we
speed up the context extension of LLMs in two aspects. On the one hand,
although dense global attention is needed during inference, fine-tuning the
model can be effectively and efficiently done by sparse local attention. The
proposed shift short attention effectively enables context extension, leading
to non-trivial computation saving with similar performance to fine-tuning with
vanilla attention. Particularly, it can be implemented with only two lines of
code in training, while being optional in inference. On the other hand, we
revisit the parameter-efficient fine-tuning regime for context expansion.
Notably, we find that LoRA for context extension works well under the premise
of trainable embedding and normalization. LongLoRA demonstrates strong
empirical results on various tasks on LLaMA2 models from 7B/13B to 70B.
LongLoRA adopts LLaMA2 7B from 4k context to 100k, or LLaMA2 70B to 32k on a
single 8x A100 machine. LongLoRA extends models' context while retaining their
original architectures, and is compatible with most existing techniques, like
FlashAttention-2. In addition, to make LongLoRA practical, we collect a
dataset, LongQA, for supervised fine-tuning. It contains more than 3k long
context question-answer pairs.