ChatPaper.aiChatPaper

Vergessen oder nicht? Auf dem Weg zum praktischen Wissensverlernen für große Sprachmodelle

To Forget or Not? Towards Practical Knowledge Unlearning for Large Language Models

July 2, 2024
Autoren: Bozhong Tian, Xiaozhuan Liang, Siyuan Cheng, Qingbin Liu, Mengru Wang, Dianbo Sui, Xi Chen, Huajun Chen, Ningyu Zhang
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs), die auf umfangreichen Korpora trainiert werden, behalten zwangsläufig sensible Daten wie persönliche Datenschutzinformationen und urheberrechtlich geschütztes Material. Aktuelle Fortschritte im Bereich des Wissensvergessens beinhalten die Aktualisierung von LLM-Parametern, um spezifisches Wissen zu löschen. Allerdings sind gegenwärtige Vergessensparadigmen in vagen Grenzen des Vergessens verstrickt und löschen oft Wissen willkürlich. In dieser Arbeit stellen wir KnowUnDo vor, einen Benchmark, der urheberrechtlich geschützte Inhalte und Benutzerdatenschutzbereiche enthält, um zu bewerten, ob der Löschvorgang unwissentlich wesentliches Wissen auslöscht. Unsere Ergebnisse deuten darauf hin, dass bestehende Löschmethoden oft unter übermäßigem Vergessen leiden. Um dies zu beheben, schlagen wir eine einfache, aber effektive Methode namens MemFlex vor, die Gradienteninformationen nutzt, um sensible Parameter präzise zu erfassen und zu löschen. Experimentelle Ergebnisse zeigen, dass MemFlex sowohl bei präzisem Wissensvergessen als auch bei der allgemeinen Beibehaltung von Wissen in LLMs überlegen ist. Der Code und der Datensatz werden unter https://github.com/zjunlp/KnowUnDo veröffentlicht.
English
Large Language Models (LLMs) trained on extensive corpora inevitably retain sensitive data, such as personal privacy information and copyrighted material. Recent advancements in knowledge unlearning involve updating LLM parameters to erase specific knowledge. However, current unlearning paradigms are mired in vague forgetting boundaries, often erasing knowledge indiscriminately. In this work, we introduce KnowUnDo, a benchmark containing copyrighted content and user privacy domains to evaluate if the unlearning process inadvertently erases essential knowledge. Our findings indicate that existing unlearning methods often suffer from excessive unlearning. To address this, we propose a simple yet effective method, MemFlex, which utilizes gradient information to precisely target and unlearn sensitive parameters. Experimental results show that MemFlex is superior to existing methods in both precise knowledge unlearning and general knowledge retaining of LLMs. Code and dataset will be released at https://github.com/zjunlp/KnowUnDo.

Summary

AI-Generated Summary

PDF164November 28, 2024