ChatPaper.aiChatPaper

Além das Leis de Escalonamento: Compreendendo o Desempenho de Transformers com Memória Associativa

Beyond Scaling Laws: Understanding Transformer Performance with Associative Memory

May 14, 2024
Autores: Xueyan Niu, Bo Bai, Lei Deng, Wei Han
cs.AI

Resumo

Aumentar o tamanho de um modelo Transformer nem sempre leva a um desempenho aprimorado. Esse fenômeno não pode ser explicado pelas leis de escalonamento empíricas. Além disso, a capacidade de generalização melhorada ocorre à medida que o modelo memoriza as amostras de treinamento. Apresentamos uma estrutura teórica que esclarece o processo de memorização e a dinâmica de desempenho dos modelos de linguagem baseados em Transformers. Modelamos o comportamento dos Transformers com memórias associativas usando redes de Hopfield, de modo que cada bloco do Transformer efetivamente realiza uma busca aproximada do vizinho mais próximo. Com base nisso, projetamos uma função de energia análoga à da rede de Hopfield contínua moderna, que fornece uma explicação perspicaz para o mecanismo de atenção. Utilizando a técnica de majorização-minimização, construímos uma função de energia global que captura a arquitetura em camadas do Transformer. Sob condições específicas, mostramos que a perda de entropia cruzada mínima alcançável é limitada inferiormente por uma constante aproximadamente igual a 1. Validamos nossos resultados teóricos realizando experimentos com o GPT-2 em vários tamanhos de dados, bem como treinando Transformers simples em um conjunto de dados de 2 milhões de tokens.
English
Increasing the size of a Transformer model does not always lead to enhanced performance. This phenomenon cannot be explained by the empirical scaling laws. Furthermore, improved generalization ability occurs as the model memorizes the training samples. We present a theoretical framework that sheds light on the memorization process and performance dynamics of transformer-based language models. We model the behavior of Transformers with associative memories using Hopfield networks, such that each transformer block effectively conducts an approximate nearest-neighbor search. Based on this, we design an energy function analogous to that in the modern continuous Hopfield network which provides an insightful explanation for the attention mechanism. Using the majorization-minimization technique, we construct a global energy function that captures the layered architecture of the Transformer. Under specific conditions, we show that the minimum achievable cross-entropy loss is bounded from below by a constant approximately equal to 1. We substantiate our theoretical results by conducting experiments with GPT-2 on various data sizes, as well as training vanilla Transformers on a dataset of 2M tokens.
PDF340December 15, 2024