ChatPaper.aiChatPaper

VeLoRA: Entrenamiento Eficiente en Memoria mediante Proyecciones de Sub-Tokens de Rango 1

VeLoRA: Memory Efficient Training using Rank-1 Sub-Token Projections

May 28, 2024
Autores: Roy Miles, Pradyumna Reddy, Ismail Elezi, Jiankang Deng
cs.AI

Resumen

Los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) han surgido recientemente como herramientas poderosas para abordar muchas tareas de procesamiento de lenguaje. A pesar de su éxito, el entrenamiento y el ajuste fino de estos modelos sigue siendo excesivamente intensivo en términos de cómputo y memoria. En este artículo, identificamos y caracterizamos los componentes importantes necesarios para lograr una convergencia efectiva del modelo utilizando el descenso de gradiente. Al hacerlo, descubrimos que las activaciones intermedias utilizadas para implementar la retropropagación pueden comprimirse en exceso sin incurrir en ninguna degradación del rendimiento. Este resultado nos lleva a un algoritmo económico y eficiente en memoria tanto para el ajuste fino como para el preentrenamiento de LLMs. El algoritmo propuesto simplemente divide los tokens en sub-tokens más pequeños antes de proyectarlos en un subespacio unidimensional fijo durante la pasada hacia adelante. Estas características se reconstruyen de manera aproximada durante la pasada hacia atrás para implementar las reglas de actualización. Confirmamos la efectividad de nuestro algoritmo como complemento a muchos métodos PEFT de vanguardia en el punto de referencia de ajuste fino VTAB-1k. Además, superamos a QLoRA en el ajuste fino de LLaMA y mostramos un rendimiento competitivo frente a otros métodos de preentrenamiento eficientes en memoria en el conjunto de datos a gran escala C4.
English
Large language models (LLMs) have recently emerged as powerful tools for tackling many language-processing tasks. Despite their success, training and fine-tuning these models is still far too computationally and memory intensive. In this paper, we identify and characterise the important components needed for effective model convergence using gradient descent. In doing so we find that the intermediate activations used to implement backpropagation can be excessively compressed without incurring any degradation in performance. This result leads us to a cheap and memory-efficient algorithm for both fine-tuning and pre-training LLMs. The proposed algorithm simply divides the tokens up into smaller sub-tokens before projecting them onto a fixed 1-dimensional subspace during the forward pass. These features are then coarsely reconstructed during the backward pass to implement the update rules. We confirm the effectiveness of our algorithm as being complimentary to many state-of-the-art PEFT methods on the VTAB-1k fine-tuning benchmark. Furthermore, we outperform QLoRA for fine-tuning LLaMA and show competitive performance against other memory-efficient pre-training methods on the large-scale C4 dataset.

Summary

AI-Generated Summary

PDF144December 12, 2024