ChatPaper.aiChatPaper

Sbloccare le capacità di apprendimento continuo nei modelli linguistici

Unlocking Continual Learning Abilities in Language Models

June 25, 2024
Autori: Wenyu Du, Shuang Cheng, Tongxu Luo, Zihan Qiu, Zeyu Huang, Ka Chun Cheung, Reynold Cheng, Jie Fu
cs.AI

Abstract

I modelli linguistici (LM) dimostrano prestazioni impressionanti e capacità di generalizzazione. Tuttavia, gli LM affrontano la persistente sfida del dimenticanza catastrofica, che mina la loro sostenibilità a lungo termine nell'apprendimento continuo (CL). Gli approcci esistenti solitamente affrontano il problema incorporando dati di vecchi compiti o bias induttivi specifici per compito negli LM. Tuttavia, i dati vecchi e le informazioni accurate sui compiti sono spesso non disponibili o costosi da raccogliere, ostacolando la disponibilità degli attuali approcci CL per gli LM. Per superare questa limitazione, introduciamo MIGU (MagnItude-based Gradient Updating for continual learning), un metodo senza rehearsal e senza etichette di compito che aggiorna solo i parametri del modello con grandi magnitudini dell'output nei livelli lineari degli LM. MIGU si basa sulla nostra osservazione che la distribuzione della magnitudine normalizzata L1 dell'output nei livelli lineari degli LM è diversa quando i modelli LM elaborano dati di compiti diversi. Imponendo questo semplice vincolo sul processo di aggiornamento del gradiente, possiamo sfruttare i comportamenti intrinseci degli LM, sbloccando così le loro innate capacità di CL. I nostri esperimenti dimostrano che MIGU è universalmente applicabile a tutte e tre le architetture LM (T5, RoBERTa e Llama2), fornendo prestazioni all'avanguardia o comparabili in contesti di fine-tuning continuo e pre-training continuo su quattro benchmark CL. Ad esempio, MIGU porta a un miglioramento medio dell'accuratezza del 15,2% rispetto ai baseline convenzionali di fine-tuning efficiente dei parametri in un benchmark CL a 15 compiti. MIGU può anche integrarsi perfettamente con tutti e tre i tipi esistenti di CL per migliorare ulteriormente le prestazioni. Il codice è disponibile all'indirizzo https://github.com/wenyudu/MIGU{this https URL}.
English
Language models (LMs) exhibit impressive performance and generalization capabilities. However, LMs struggle with the persistent challenge of catastrophic forgetting, which undermines their long-term sustainability in continual learning (CL). Existing approaches usually address the issue by incorporating old task data or task-wise inductive bias into LMs. However, old data and accurate task information are often unavailable or costly to collect, hindering the availability of current CL approaches for LMs. To address this limitation, we introduce MIGU (MagnItude-based Gradient Updating for continual learning), a rehearsal-free and task-label-free method that only updates the model parameters with large magnitudes of output in LMs' linear layers. MIGU is based on our observation that the L1-normalized magnitude distribution of the output in LMs' linear layers is different when the LM models deal with different task data. By imposing this simple constraint on the gradient update process, we can leverage the inherent behaviors of LMs, thereby unlocking their innate CL abilities. Our experiments demonstrate that MIGU is universally applicable to all three LM architectures (T5, RoBERTa, and Llama2), delivering state-of-the-art or on-par performance across continual finetuning and continual pre-training settings on four CL benchmarks. For example, MIGU brings a 15.2% average accuracy improvement over conventional parameter-efficient finetuning baselines in a 15-task CL benchmark. MIGU can also seamlessly integrate with all three existing CL types to further enhance performance. Code is available at https://github.com/wenyudu/MIGU{this https URL}.
PDF301February 8, 2026