Dimenticare o non dimenticare? Verso un approccio pratico per l'eliminazione della conoscenza nei modelli linguistici di grandi dimensioni
To Forget or Not? Towards Practical Knowledge Unlearning for Large Language Models
July 2, 2024
Autori: Bozhong Tian, Xiaozhuan Liang, Siyuan Cheng, Qingbin Liu, Mengru Wang, Dianbo Sui, Xi Chen, Huajun Chen, Ningyu Zhang
cs.AI
Abstract
I Large Language Model (LLM) addestrati su ampi corpora inevitabilmente conservano dati sensibili, come informazioni personali private e materiale protetto da copyright. I recenti progressi nell'eliminazione della conoscenza comportano l'aggiornamento dei parametri dei LLM per cancellare specifiche conoscenze. Tuttavia, gli attuali paradigmi di eliminazione sono ostacolati da confini di dimenticanza vaghi, spesso cancellando la conoscenza in modo indiscriminato. In questo lavoro, introduciamo KnowUnDo, un benchmark contenente domini di contenuti protetti da copyright e privacy degli utenti per valutare se il processo di eliminazione cancella involontariamente conoscenze essenziali. I nostri risultati indicano che i metodi di eliminazione esistenti spesso soffrono di un'eccessiva cancellazione. Per affrontare questo problema, proponiamo un metodo semplice ma efficace, MemFlex, che utilizza le informazioni sul gradiente per individuare e cancellare con precisione i parametri sensibili. I risultati sperimentali mostrano che MemFlex è superiore ai metodi esistenti sia nella precisa eliminazione della conoscenza che nel mantenimento della conoscenza generale dei LLM. Il codice e il dataset saranno rilasciati su https://github.com/zjunlp/KnowUnDo.
English
Large Language Models (LLMs) trained on extensive corpora inevitably retain
sensitive data, such as personal privacy information and copyrighted material.
Recent advancements in knowledge unlearning involve updating LLM parameters to
erase specific knowledge. However, current unlearning paradigms are mired in
vague forgetting boundaries, often erasing knowledge indiscriminately. In this
work, we introduce KnowUnDo, a benchmark containing copyrighted content and
user privacy domains to evaluate if the unlearning process inadvertently erases
essential knowledge. Our findings indicate that existing unlearning methods
often suffer from excessive unlearning. To address this, we propose a simple
yet effective method, MemFlex, which utilizes gradient information to precisely
target and unlearn sensitive parameters. Experimental results show that MemFlex
is superior to existing methods in both precise knowledge unlearning and
general knowledge retaining of LLMs. Code and dataset will be released at
https://github.com/zjunlp/KnowUnDo.