Transformadores Podem Alcançar Generalização de Comprimento, Mas Não de Forma Robusta
Transformers Can Achieve Length Generalization But Not Robustly
February 14, 2024
Autores: Yongchao Zhou, Uri Alon, Xinyun Chen, Xuezhi Wang, Rishabh Agarwal, Denny Zhou
cs.AI
Resumo
A generalização de comprimento, definida como a capacidade de extrapolar de sequências de treinamento mais curtas para sequências de teste mais longas, é um desafio significativo para modelos de linguagem. Esse problema persiste mesmo com Transformers em grande escala lidando com tarefas relativamente simples. Neste artigo, testamos a capacidade de generalização de comprimento do Transformer usando a tarefa de adição de dois números inteiros. Mostramos que o sucesso da generalização de comprimento está intrinsecamente ligado ao formato dos dados e ao tipo de codificação posicional. Usando a combinação correta de formato de dados e codificações posicionais, demonstramos pela primeira vez que Transformers padrão podem extrapolar para um comprimento de sequência que é 2,5 vezes o comprimento da entrada. No entanto, ao contrário da generalização dentro da distribuição, a generalização de comprimento permanece frágil, sendo significativamente influenciada por fatores como a inicialização aleatória dos pesos e a ordem dos dados de treinamento, resultando em grandes variações entre diferentes sementes aleatórias.
English
Length generalization, defined as the ability to extrapolate from shorter
training sequences to longer test ones, is a significant challenge for language
models. This issue persists even with large-scale Transformers handling
relatively straightforward tasks. In this paper, we test the Transformer's
ability of length generalization using the task of addition of two integers. We
show that the success of length generalization is intricately linked to the
data format and the type of position encoding. Using the right combination of
data format and position encodings, we show for the first time that standard
Transformers can extrapolate to a sequence length that is 2.5x the input
length. Nevertheless, unlike in-distribution generalization, length
generalization remains fragile, significantly influenced by factors like random
weight initialization and training data order, leading to large variances
across different random seeds.