ChatPaper.aiChatPaper

Vergeten of niet? Op weg naar praktisch kennisverwijderen voor grote taalmodelen

To Forget or Not? Towards Practical Knowledge Unlearning for Large Language Models

July 2, 2024
Auteurs: Bozhong Tian, Xiaozhuan Liang, Siyuan Cheng, Qingbin Liu, Mengru Wang, Dianbo Sui, Xi Chen, Huajun Chen, Ningyu Zhang
cs.AI

Samenvatting

Grote Taalmodellen (LLMs) die getraind zijn op uitgebreide corpora behouden onvermijdelijk gevoelige gegevens, zoals persoonlijke privacyinformatie en auteursrechtelijk beschermd materiaal. Recente vooruitgang in kennisverwijdering omvat het bijwerken van LLM-parameters om specifieke kennis te wissen. Huidige paradigma's voor kennisverwijdering kampen echter met vage grenzen voor vergeten, waarbij vaak kennis ongericht wordt gewist. In dit werk introduceren we KnowUnDo, een benchmark die auteursrechtelijk beschermde inhoud en gebruikersprivacydomeinen bevat om te evalueren of het verwijderingsproces onbedoeld essentiële kennis wist. Onze bevindingen geven aan dat bestaande verwijderingsmethoden vaak lijden onder overmatig wissen. Om dit aan te pakken, stellen we een eenvoudige maar effectieve methode voor, MemFlex, die gebruikmaakt van gradientinformatie om gevoelige parameters precies te targeten en te verwijderen. Experimentele resultaten tonen aan dat MemFlex superieur is aan bestaande methoden in zowel precieze kennisverwijdering als het behouden van algemene kennis in LLMs. Code en dataset zullen worden vrijgegeven op https://github.com/zjunlp/KnowUnDo.
English
Large Language Models (LLMs) trained on extensive corpora inevitably retain sensitive data, such as personal privacy information and copyrighted material. Recent advancements in knowledge unlearning involve updating LLM parameters to erase specific knowledge. However, current unlearning paradigms are mired in vague forgetting boundaries, often erasing knowledge indiscriminately. In this work, we introduce KnowUnDo, a benchmark containing copyrighted content and user privacy domains to evaluate if the unlearning process inadvertently erases essential knowledge. Our findings indicate that existing unlearning methods often suffer from excessive unlearning. To address this, we propose a simple yet effective method, MemFlex, which utilizes gradient information to precisely target and unlearn sensitive parameters. Experimental results show that MemFlex is superior to existing methods in both precise knowledge unlearning and general knowledge retaining of LLMs. Code and dataset will be released at https://github.com/zjunlp/KnowUnDo.
PDF174November 28, 2024