ChatPaper.aiChatPaper

Dimenticare o non dimenticare? Verso un approccio pratico per l'eliminazione della conoscenza nei modelli linguistici di grandi dimensioni

To Forget or Not? Towards Practical Knowledge Unlearning for Large Language Models

July 2, 2024
Autori: Bozhong Tian, Xiaozhuan Liang, Siyuan Cheng, Qingbin Liu, Mengru Wang, Dianbo Sui, Xi Chen, Huajun Chen, Ningyu Zhang
cs.AI

Abstract

I Large Language Model (LLM) addestrati su ampi corpora inevitabilmente conservano dati sensibili, come informazioni personali private e materiale protetto da copyright. I recenti progressi nell'eliminazione della conoscenza comportano l'aggiornamento dei parametri dei LLM per cancellare specifiche conoscenze. Tuttavia, gli attuali paradigmi di eliminazione sono ostacolati da confini di dimenticanza vaghi, spesso cancellando la conoscenza in modo indiscriminato. In questo lavoro, introduciamo KnowUnDo, un benchmark contenente domini di contenuti protetti da copyright e privacy degli utenti per valutare se il processo di eliminazione cancella involontariamente conoscenze essenziali. I nostri risultati indicano che i metodi di eliminazione esistenti spesso soffrono di un'eccessiva cancellazione. Per affrontare questo problema, proponiamo un metodo semplice ma efficace, MemFlex, che utilizza le informazioni sul gradiente per individuare e cancellare con precisione i parametri sensibili. I risultati sperimentali mostrano che MemFlex è superiore ai metodi esistenti sia nella precisa eliminazione della conoscenza che nel mantenimento della conoscenza generale dei LLM. Il codice e il dataset saranno rilasciati su https://github.com/zjunlp/KnowUnDo.
English
Large Language Models (LLMs) trained on extensive corpora inevitably retain sensitive data, such as personal privacy information and copyrighted material. Recent advancements in knowledge unlearning involve updating LLM parameters to erase specific knowledge. However, current unlearning paradigms are mired in vague forgetting boundaries, often erasing knowledge indiscriminately. In this work, we introduce KnowUnDo, a benchmark containing copyrighted content and user privacy domains to evaluate if the unlearning process inadvertently erases essential knowledge. Our findings indicate that existing unlearning methods often suffer from excessive unlearning. To address this, we propose a simple yet effective method, MemFlex, which utilizes gradient information to precisely target and unlearn sensitive parameters. Experimental results show that MemFlex is superior to existing methods in both precise knowledge unlearning and general knowledge retaining of LLMs. Code and dataset will be released at https://github.com/zjunlp/KnowUnDo.
PDF174November 28, 2024