ChatPaper.aiChatPaper

CURLoRA: Stabiele Continue Fine-Tuning van LLM's en Mitigatie van Catastrofaal Vergeten

CURLoRA: Stable LLM Continual Fine-Tuning and Catastrophic Forgetting Mitigation

August 26, 2024
Auteurs: Muhammad Fawi
cs.AI

Samenvatting

Dit artikel introduceert CURLoRA, een nieuwe benadering voor het finetunen van grote taalmmodellen (LLM's) die CUR-matrixdecompositie benut in de context van Low-Rank Adaptation (LoRA). Onze methode richt zich op twee kritieke uitdagingen bij het finetunen van LLM's: het beperken van catastrofaal vergeten tijdens continu leren en het verminderen van het aantal trainbare parameters. We stellen een unieke aanpassing voor in het CUR-decompositieproces, waarbij omgekeerde waarschijnlijkheden worden gebruikt voor kolom- en rijselectie, wat fungeert als een impliciete regularisatie, en waarbij de U-matrix wordt geïnitialiseerd als een nulmatrix die uitsluitend wordt gefinetuned. We tonen via experimenten op meerdere datasets aan dat CURLoRA standaard LoRA overtreft in het beperken van catastrofaal vergeten. Het behoudt modelstabiliteit en prestaties over taken heen, terwijl het aantal trainbare parameters aanzienlijk wordt verminderd. Onze resultaten laten zien dat CURLoRA zeer goede en stabiele taaknauwkeurigheid bereikt, terwijl de perplexiteitsscores van het basismodel ongewijzigd blijven in vergelijking met LoRA bij continu finetunen, vooral in scenario's met beperkte data.
English
This paper introduces CURLoRA, a novel approach to fine-tuning large language models (LLMs) that leverages CUR matrix decomposition in the context of Low-Rank Adaptation (LoRA). Our method addresses two critical challenges in LLM fine-tuning: mitigating catastrophic forgetting during continual learning and reducing the number of trainable parameters. We propose a unique modification to the CUR decomposition process, utilizing inverted probabilities for column and row selection which acts as an implicit regularization, and initializing the U matrix as a zero matrix, and only fine-tuning it. We demonstrate through experiments on multiple datasets that CURLoRA outperforms standard LoRA in mitigating catastrophic forgetting. It maintains model stability and performance across tasks while significantly reducing the number of trainable parameters. Our results show that CURLoRA achieves very good and stable task accuracy while maintaining base model's perplexity scores fixed compared to LoRA upon continual fine-tuning, particularly in scenarios with limited data.

Summary

AI-Generated Summary

PDF82November 16, 2024