ChatPaper.aiChatPaper

Imparare a Rifiutare: Verso la Mitigazione dei Rischi per la Privacy nei Modelli Linguistici di Grande Dimensione

Learning to Refuse: Towards Mitigating Privacy Risks in LLMs

July 14, 2024
Autori: Zhenhua Liu, Tong Zhu, Chuanyuan Tan, Wenliang Chen
cs.AI

Abstract

I grandi modelli linguistici (LLM) dimostrano capacità straordinarie nella comprensione e generazione del linguaggio naturale. Tuttavia, questi modelli possono memorizzare involontariamente informazioni private, rappresentando rischi significativi per la privacy. Questo studio affronta la sfida di consentire ai LLM di proteggere i dati personali di specifici individui senza la necessità di un completo riaddestramento. Proponiamo \return, un dataset di Real-world pErsonal daTa UnleaRNing, composto da 2.492 individui provenienti da Wikipedia con coppie di domande e risposte associate, per valutare i metodi di machine unlearning (MU) per la protezione dei dati personali in uno scenario realistico. Inoltre, introduciamo il Name-Aware Unlearning Framework (NAUF) per la protezione della privacy, che consente al modello di apprendere quali informazioni degli individui debbano essere protette senza compromettere la sua capacità di rispondere a domande relative ad altri individui non correlati. I nostri ampi esperimenti dimostrano che NAUF raggiunge un punteggio medio di unlearning all'avanguardia, superando il miglior metodo di riferimento di 5,65 punti, proteggendo efficacemente i dati personali degli individui target mantenendo le capacità generali del modello.
English
Large language models (LLMs) exhibit remarkable capabilities in understanding and generating natural language. However, these models can inadvertently memorize private information, posing significant privacy risks. This study addresses the challenge of enabling LLMs to protect specific individuals' private data without the need for complete retraining. We propose \return, a Real-world pErsonal daTa UnleaRNing dataset, comprising 2,492 individuals from Wikipedia with associated QA pairs, to evaluate machine unlearning (MU) methods for protecting personal data in a realistic scenario. Additionally, we introduce the Name-Aware Unlearning Framework (NAUF) for Privacy Protection, which enables the model to learn which individuals' information should be protected without affecting its ability to answer questions related to other unrelated individuals. Our extensive experiments demonstrate that NAUF achieves a state-of-the-art average unlearning score, surpassing the best baseline method by 5.65 points, effectively protecting target individuals' personal data while maintaining the model's general capabilities.
PDF314November 28, 2024