LongRoPE: Erweiterung des Kontextfensters von LLMs über 2 Millionen Tokens hinaus
LongRoPE: Extending LLM Context Window Beyond 2 Million Tokens
February 21, 2024
Autoren: Yiran Ding, Li Lyna Zhang, Chengruidong Zhang, Yuanyuan Xu, Ning Shang, Jiahang Xu, Fan Yang, Mao Yang
cs.AI
Zusammenfassung
Ein großer Kontextfenster ist eine wünschenswerte Eigenschaft in großen Sprachmodellen (LLMs). Aufgrund der hohen Feinabstimmungskosten, der Knappheit langer Texte und der katastrophalen Werte, die durch neue Token-Positionen eingeführt werden, sind die derzeit erweiterten Kontextfenster jedoch auf etwa 128k Token begrenzt. Dieses Papier stellt LongRoPE vor, das erstmals das Kontextfenster vortrainierter LLMs auf beeindruckende 2048k Token erweitert, mit bis zu nur 1k Feinabstimmungsschritten bei Trainingslängen innerhalb von 256k, während die Leistung im ursprünglichen kurzen Kontextfenster erhalten bleibt. Dies wird durch drei Schlüsselinnovationen erreicht: (i) Wir identifizieren und nutzen zwei Formen von Nicht-Uniformitäten in der Positionsinterpolation durch eine effiziente Suche, was eine bessere Initialisierung für die Feinabstimmung bietet und eine 8-fache Erweiterung in Szenarien ohne Feinabstimmung ermöglicht; (ii) Wir führen eine progressive Erweiterungsstrategie ein, die zunächst ein 256k langes LLM feinabstimmt und dann eine zweite Positionsinterpolation auf dem feinabgestimmten erweiterten LLM durchführt, um ein 2048k Kontextfenster zu erreichen; (iii) Wir passen LongRoPE auf 8k Länge neu an, um die Leistung im kurzen Kontextfenster wiederherzustellen. Umfangreiche Experimente mit LLaMA2 und Mistral über verschiedene Aufgaben hinweg demonstrieren die Wirksamkeit unserer Methode. Modelle, die über LongRoPE erweitert wurden, behalten die ursprüngliche Architektur mit geringfügigen Modifikationen der Positions-Einbettung bei und können die meisten bestehenden Optimierungen wiederverwenden.
English
Large context window is a desirable feature in large language models (LLMs).
However, due to high fine-tuning costs, scarcity of long texts, and
catastrophic values introduced by new token positions, current extended context
windows are limited to around 128k tokens. This paper introduces LongRoPE that,
for the first time, extends the context window of pre-trained LLMs to an
impressive 2048k tokens, with up to only 1k fine-tuning steps at within 256k
training lengths, while maintaining performance at the original short context
window. This is achieved by three key innovations: (i) we identify and exploit
two forms of non-uniformities in positional interpolation through an efficient
search, providing a better initialization for fine-tuning and enabling an 8x
extension in non-fine-tuning scenarios; (ii) we introduce a progressive
extension strategy that first fine-tunes a 256k length LLM and then conducts a
second positional interpolation on the fine-tuned extended LLM to achieve a
2048k context window; (iii) we readjust LongRoPE on 8k length to recover the
short context window performance. Extensive experiments on LLaMA2 and Mistral
across various tasks demonstrate the effectiveness of our method. Models
extended via LongRoPE retain the original architecture with minor modifications
to the positional embedding, and can reuse most pre-existing optimizations.