ChatPaper.aiChatPaper

Lernen, um abzulehnen: Zur Minderung von Datenschutzrisiken in LLMs

Learning to Refuse: Towards Mitigating Privacy Risks in LLMs

July 14, 2024
Autoren: Zhenhua Liu, Tong Zhu, Chuanyuan Tan, Wenliang Chen
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) zeigen bemerkenswerte Fähigkeiten im Verstehen und Generieren natürlicher Sprache. Allerdings können diese Modelle unbeabsichtigt private Informationen memorieren und somit erhebliche Datenschutzrisiken darstellen. Diese Studie befasst sich mit der Herausforderung, LLMs zu befähigen, spezifische private Daten von Einzelpersonen zu schützen, ohne dass eine vollständige Neuschulung erforderlich ist. Wir schlagen \return vor, ein Real-world pErsonal daTa UnleaRNing-Datensatz, der 2.492 Personen aus Wikipedia mit zugehörigen Frage-Antwort-Paaren umfasst, um Methoden des maschinellen Vergessens (MU) zur Sicherung persönlicher Daten in einem realistischen Szenario zu bewerten. Darüber hinaus führen wir das Name-Aware Unlearning Framework (NAUF) für den Datenschutz ein, das dem Modell ermöglicht zu lernen, welche Informationen von Einzelpersonen geschützt werden sollten, ohne seine Fähigkeit zu beeinträchtigen, Fragen zu anderen nicht verwandten Personen zu beantworten. Unsere umfangreichen Experimente zeigen, dass NAUF einen Spitzenwert beim durchschnittlichen Vergessen erzielt, den besten Basismethoden um 5,65 Punkte übertrifft und somit die persönlichen Daten der Zielindividuen effektiv schützt, während die allgemeinen Fähigkeiten des Modells erhalten bleiben.
English
Large language models (LLMs) exhibit remarkable capabilities in understanding and generating natural language. However, these models can inadvertently memorize private information, posing significant privacy risks. This study addresses the challenge of enabling LLMs to protect specific individuals' private data without the need for complete retraining. We propose \return, a Real-world pErsonal daTa UnleaRNing dataset, comprising 2,492 individuals from Wikipedia with associated QA pairs, to evaluate machine unlearning (MU) methods for protecting personal data in a realistic scenario. Additionally, we introduce the Name-Aware Unlearning Framework (NAUF) for Privacy Protection, which enables the model to learn which individuals' information should be protected without affecting its ability to answer questions related to other unrelated individuals. Our extensive experiments demonstrate that NAUF achieves a state-of-the-art average unlearning score, surpassing the best baseline method by 5.65 points, effectively protecting target individuals' personal data while maintaining the model's general capabilities.

Summary

AI-Generated Summary

PDF324November 28, 2024