ChatPaper.aiChatPaper

Transformadores Podem Alcançar Generalização de Comprimento, Mas Não de Forma Robusta

Transformers Can Achieve Length Generalization But Not Robustly

February 14, 2024
Autores: Yongchao Zhou, Uri Alon, Xinyun Chen, Xuezhi Wang, Rishabh Agarwal, Denny Zhou
cs.AI

Resumo

A generalização de comprimento, definida como a capacidade de extrapolar de sequências de treinamento mais curtas para sequências de teste mais longas, é um desafio significativo para modelos de linguagem. Esse problema persiste mesmo com Transformers em grande escala lidando com tarefas relativamente simples. Neste artigo, testamos a capacidade de generalização de comprimento do Transformer usando a tarefa de adição de dois números inteiros. Mostramos que o sucesso da generalização de comprimento está intrinsecamente ligado ao formato dos dados e ao tipo de codificação posicional. Usando a combinação correta de formato de dados e codificações posicionais, demonstramos pela primeira vez que Transformers padrão podem extrapolar para um comprimento de sequência que é 2,5 vezes o comprimento da entrada. No entanto, ao contrário da generalização dentro da distribuição, a generalização de comprimento permanece frágil, sendo significativamente influenciada por fatores como a inicialização aleatória dos pesos e a ordem dos dados de treinamento, resultando em grandes variações entre diferentes sementes aleatórias.
English
Length generalization, defined as the ability to extrapolate from shorter training sequences to longer test ones, is a significant challenge for language models. This issue persists even with large-scale Transformers handling relatively straightforward tasks. In this paper, we test the Transformer's ability of length generalization using the task of addition of two integers. We show that the success of length generalization is intricately linked to the data format and the type of position encoding. Using the right combination of data format and position encodings, we show for the first time that standard Transformers can extrapolate to a sequence length that is 2.5x the input length. Nevertheless, unlike in-distribution generalization, length generalization remains fragile, significantly influenced by factors like random weight initialization and training data order, leading to large variances across different random seeds.
PDF151December 15, 2024