ChatPaper.aiChatPaper

Desbloqueando Habilidades de Aprendizaje Continuo en Modelos de Lenguaje

Unlocking Continual Learning Abilities in Language Models

June 25, 2024
Autores: Wenyu Du, Shuang Cheng, Tongxu Luo, Zihan Qiu, Zeyu Huang, Ka Chun Cheung, Reynold Cheng, Jie Fu
cs.AI

Resumen

Los modelos de lenguaje (LMs) muestran un rendimiento impresionante y capacidades de generalización. Sin embargo, los LMs enfrentan el desafío persistente del olvido catastrófico, lo que socava su sostenibilidad a largo plazo en el aprendizaje continuo (CL). Los enfoques existentes suelen abordar este problema incorporando datos de tareas antiguas o sesgos inductivos específicos por tarea en los LMs. No obstante, los datos antiguos y la información precisa sobre las tareas a menudo no están disponibles o son costosos de recopilar, lo que dificulta la disponibilidad de los enfoques actuales de CL para LMs. Para abordar esta limitación, presentamos MIGU (MagnItude-based Gradient Updating for continual learning), un método que no requiere repetición ni etiquetas de tareas y que solo actualiza los parámetros del modelo con magnitudes grandes de salida en las capas lineales de los LMs. MIGU se basa en nuestra observación de que la distribución de magnitudes normalizada L1 de la salida en las capas lineales de los LMs es diferente cuando los modelos de lenguaje manejan datos de diferentes tareas. Al imponer esta simple restricción en el proceso de actualización del gradiente, podemos aprovechar los comportamientos inherentes de los LMs, desbloqueando así sus capacidades innatas de CL. Nuestros experimentos demuestran que MIGU es universalmente aplicable a las tres arquitecturas de LMs (T5, RoBERTa y Llama2), ofreciendo un rendimiento de vanguardia o comparable en entornos de ajuste fino continuo y preentrenamiento continuo en cuatro benchmarks de CL. Por ejemplo, MIGU logra una mejora promedio del 15.2% en precisión sobre los baselines convencionales de ajuste fino eficiente en parámetros en un benchmark de CL de 15 tareas. MIGU también puede integrarse sin problemas con los tres tipos existentes de CL para mejorar aún más el rendimiento. El código está disponible en https://github.com/wenyudu/MIGU{this https URL}.
English
Language models (LMs) exhibit impressive performance and generalization capabilities. However, LMs struggle with the persistent challenge of catastrophic forgetting, which undermines their long-term sustainability in continual learning (CL). Existing approaches usually address the issue by incorporating old task data or task-wise inductive bias into LMs. However, old data and accurate task information are often unavailable or costly to collect, hindering the availability of current CL approaches for LMs. To address this limitation, we introduce MIGU (MagnItude-based Gradient Updating for continual learning), a rehearsal-free and task-label-free method that only updates the model parameters with large magnitudes of output in LMs' linear layers. MIGU is based on our observation that the L1-normalized magnitude distribution of the output in LMs' linear layers is different when the LM models deal with different task data. By imposing this simple constraint on the gradient update process, we can leverage the inherent behaviors of LMs, thereby unlocking their innate CL abilities. Our experiments demonstrate that MIGU is universally applicable to all three LM architectures (T5, RoBERTa, and Llama2), delivering state-of-the-art or on-par performance across continual finetuning and continual pre-training settings on four CL benchmarks. For example, MIGU brings a 15.2% average accuracy improvement over conventional parameter-efficient finetuning baselines in a 15-task CL benchmark. MIGU can also seamlessly integrate with all three existing CL types to further enhance performance. Code is available at https://github.com/wenyudu/MIGU{this https URL}.

Summary

AI-Generated Summary

PDF311November 29, 2024