LongNet: Масштабирование трансформаторов до 1 000 000 000 токенов
LongNet: Scaling Transformers to 1,000,000,000 Tokens
July 5, 2023
Авторы: Jiayu Ding, Shuming Ma, Li Dong, Xingxing Zhang, Shaohan Huang, Wenhui Wang, Furu Wei
cs.AI
Аннотация
Масштабирование длины последовательности стало критически важной задачей в эпоху больших языковых моделей. Однако существующие методы сталкиваются либо с вычислительной сложностью, либо с ограниченной выразительностью модели, что приводит к ограничению максимальной длины последовательности. В данной работе мы представляем LongNet — вариант архитектуры Transformer, который позволяет масштабировать длину последовательности до более чем 1 миллиарда токенов без ущерба для производительности на более коротких последовательностях. В частности, мы предлагаем дилатированное внимание, которое экспоненциально расширяет область внимания с увеличением расстояния. LongNet обладает значительными преимуществами: 1) он имеет линейную вычислительную сложность и логарифмическую зависимость между токенами; 2) он может использоваться как распределенный обучающий механизм для чрезвычайно длинных последовательностей; 3) его дилатированное внимание является прямой заменой стандартного внимания и может быть легко интегрировано с существующими оптимизациями на основе Transformer. Результаты экспериментов показывают, что LongNet демонстрирует высокую производительность как в задачах моделирования длинных последовательностей, так и в общих языковых задачах. Наша работа открывает новые возможности для моделирования очень длинных последовательностей, например, обработки всего корпуса текстов или даже всего Интернета как единой последовательности.
English
Scaling sequence length has become a critical demand in the era of large
language models. However, existing methods struggle with either computational
complexity or model expressivity, rendering the maximum sequence length
restricted. In this work, we introduce LongNet, a Transformer variant that can
scale sequence length to more than 1 billion tokens, without sacrificing the
performance on shorter sequences. Specifically, we propose dilated attention,
which expands the attentive field exponentially as the distance grows. LongNet
has significant advantages: 1) it has a linear computation complexity and a
logarithm dependency between tokens; 2) it can be served as a distributed
trainer for extremely long sequences; 3) its dilated attention is a drop-in
replacement for standard attention, which can be seamlessly integrated with the
existing Transformer-based optimization. Experiments results demonstrate that
LongNet yields strong performance on both long-sequence modeling and general
language tasks. Our work opens up new possibilities for modeling very long
sequences, e.g., treating a whole corpus or even the entire Internet as a
sequence.