LongRoPE : Extension de la fenêtre contextuelle des LLM au-delà de 2 millions de tokens
LongRoPE: Extending LLM Context Window Beyond 2 Million Tokens
February 21, 2024
Auteurs: Yiran Ding, Li Lyna Zhang, Chengruidong Zhang, Yuanyuan Xu, Ning Shang, Jiahang Xu, Fan Yang, Mao Yang
cs.AI
Résumé
Une grande fenêtre contextuelle est une caractéristique souhaitable dans les grands modèles de langage (LLM). Cependant, en raison des coûts élevés de fine-tuning, de la rareté des textes longs et des valeurs catastrophiques introduites par les nouvelles positions de tokens, les fenêtres contextuelles étendues actuelles sont limitées à environ 128k tokens. Cet article présente LongRoPE qui, pour la première fois, étend la fenêtre contextuelle des LLM pré-entraînés à un impressionnant 2048k tokens, avec seulement jusqu'à 1k étapes de fine-tuning sur des longueurs d'entraînement de 256k, tout en maintenant les performances sur la fenêtre contextuelle courte d'origine. Cela est réalisé grâce à trois innovations clés : (i) nous identifions et exploitons deux formes de non-uniformités dans l'interpolation positionnelle via une recherche efficace, fournissant une meilleure initialisation pour le fine-tuning et permettant une extension de 8x dans des scénarios sans fine-tuning ; (ii) nous introduisons une stratégie d'extension progressive qui commence par fine-tuner un LLM de longueur 256k, puis effectue une deuxième interpolation positionnelle sur le LLM étendu fine-tuné pour atteindre une fenêtre contextuelle de 2048k ; (iii) nous réajustons LongRoPE sur une longueur de 8k pour restaurer les performances sur la fenêtre contextuelle courte. Des expériences approfondies sur LLaMA2 et Mistral à travers diverses tâches démontrent l'efficacité de notre méthode. Les modèles étendus via LongRoPE conservent l'architecture originale avec des modifications mineures de l'embedding positionnel, et peuvent réutiliser la plupart des optimisations préexistantes.
English
Large context window is a desirable feature in large language models (LLMs).
However, due to high fine-tuning costs, scarcity of long texts, and
catastrophic values introduced by new token positions, current extended context
windows are limited to around 128k tokens. This paper introduces LongRoPE that,
for the first time, extends the context window of pre-trained LLMs to an
impressive 2048k tokens, with up to only 1k fine-tuning steps at within 256k
training lengths, while maintaining performance at the original short context
window. This is achieved by three key innovations: (i) we identify and exploit
two forms of non-uniformities in positional interpolation through an efficient
search, providing a better initialization for fine-tuning and enabling an 8x
extension in non-fine-tuning scenarios; (ii) we introduce a progressive
extension strategy that first fine-tunes a 256k length LLM and then conducts a
second positional interpolation on the fine-tuned extended LLM to achieve a
2048k context window; (iii) we readjust LongRoPE on 8k length to recover the
short context window performance. Extensive experiments on LLaMA2 and Mistral
across various tasks demonstrate the effectiveness of our method. Models
extended via LongRoPE retain the original architecture with minor modifications
to the positional embedding, and can reuse most pre-existing optimizations.Summary
AI-Generated Summary