ChatPaper.aiChatPaper

Resonance RoPE: Melhorando a Generalização de Comprimento de Contexto em Modelos de Linguagem de Grande Escala

Resonance RoPE: Improving Context Length Generalization of Large Language Models

February 29, 2024
Autores: Suyuchen Wang, Ivan Kobyzev, Peng Lu, Mehdi Rezagholizadeh, Bang Liu
cs.AI

Resumo

Este artigo aborda o desafio dos cenários de treino-curto-teste-longo (TSTL) em Modelos de Linguagem de Grande Escala (LLMs) equipados com Embedding de Posição Rotacional (RoPE), onde modelos pré-treinados em sequências mais curtas enfrentam dificuldades com posições de tokens fora da distribuição (OOD) em sequências mais longas. Introduzimos o Resonance RoPE, uma abordagem inovadora projetada para reduzir a lacuna de generalização em cenários TSTL, refinando a interpolação das características do RoPE para posições OOD, melhorando significativamente o desempenho do modelo sem custos computacionais adicionais em tempo de execução. Além disso, apresentamos o PosGen, um novo benchmark sintético especificamente projetado para análise de comportamento detalhada em cenários TSTL, visando isolar a dificuldade constantemente crescente de geração de tokens em contextos longos dos desafios de reconhecer novas posições de tokens. Nossos experimentos em tarefas sintéticas mostram que, após a aplicação do Resonance RoPE, os Transformers reconhecem posições OOD de forma melhor e mais robusta. Nossos extensos experimentos com LLMs também mostram um desempenho superior após a aplicação do Resonance RoPE ao método atual de escalonamento RoPE de última geração, YaRN, tanto em tarefas de modelagem de linguagem upstream quanto em uma variedade de aplicações de texto longo downstream.
English
This paper addresses the challenge of train-short-test-long (TSTL) scenarios in Large Language Models (LLMs) equipped with Rotary Position Embedding (RoPE), where models pre-trained on shorter sequences face difficulty with out-of-distribution (OOD) token positions in longer sequences. We introduce Resonance RoPE, a novel approach designed to narrow the generalization gap in TSTL scenarios by refining the interpolation of RoPE features for OOD positions, significantly improving the model performance without additional online computational costs. Furthermore, we present PosGen, a new synthetic benchmark specifically designed for fine-grained behavior analysis in TSTL scenarios, aiming to isolate the constantly increasing difficulty of token generation on long contexts from the challenges of recognizing new token positions. Our experiments on synthetic tasks show that after applying Resonance RoPE, Transformers recognize OOD position better and more robustly. Our extensive LLM experiments also show superior performance after applying Resonance RoPE to the current state-of-the-art RoPE scaling method, YaRN, on both upstream language modeling tasks and a variety of downstream long-text applications.
PDF242December 15, 2024