ChatPaper.aiChatPaper

Évaluation intrinsèque du désapprentissage à l'aide de traces de connaissances paramétriques

Intrinsic Evaluation of Unlearning Using Parametric Knowledge Traces

June 17, 2024
Auteurs: Yihuai Hong, Lei Yu, Shauli Ravfogel, Haiqin Yang, Mor Geva
cs.AI

Résumé

La tâche de "désapprentissage" de certains concepts dans les grands modèles de langage (LLMs) a récemment suscité une attention considérable, en raison de son importance pour atténuer les comportements indésirables des modèles, tels que la génération d'informations nuisibles, privées ou incorrectes. Les protocoles actuels pour évaluer les méthodes de désapprentissage reposent largement sur des tests comportementaux, sans surveiller la présence des connaissances désapprises dans les paramètres du modèle. Ces connaissances résiduelles peuvent être exploitées de manière antagoniste pour récupérer les informations effacées après le désapprentissage. Nous soutenons que le désapprentissage devrait également être évalué en interne, en considérant les changements dans les traces de connaissances paramétriques des concepts désappris. À cette fin, nous proposons une méthodologie générale pour identifier des directions dans l'espace des paramètres (appelées "vecteurs de concepts") qui encodent des concepts concrets, et construisons ConceptVectors, un ensemble de données de référence contenant des centaines de concepts courants et leurs traces de connaissances paramétriques au sein de deux LLMs open-source. L'évaluation sur ConceptVectors montre que les méthodes de désapprentissage existantes ont un impact minimal sur les vecteurs de concepts, tandis que l'ablation directe de ces vecteurs supprime de manière démontrable les connaissances associées des LLMs et réduit significativement leur vulnérabilité à la manipulation antagoniste. Nos résultats mettent en lumière les limites des évaluations de désapprentissage basées sur le comportement et appellent à inclure des évaluations basées sur les paramètres dans les travaux futurs. Pour soutenir cela, nous publions notre code et notre ensemble de données de référence à l'adresse https://github.com/yihuaihong/ConceptVectors.
English
The task of "unlearning" certain concepts in large language models (LLMs) has attracted immense attention recently, due to its importance for mitigating undesirable model behaviours, such as the generation of harmful, private, or incorrect information. Current protocols to evaluate unlearning methods largely rely on behavioral tests, without monitoring the presence of unlearned knowledge within the model's parameters. This residual knowledge can be adversarially exploited to recover the erased information post-unlearning. We argue that unlearning should also be evaluated internally, by considering changes in the parametric knowledge traces of the unlearned concepts. To this end, we propose a general methodology for eliciting directions in the parameter space (termed "concept vectors") that encode concrete concepts, and construct ConceptVectors, a benchmark dataset containing hundreds of common concepts and their parametric knowledge traces within two open-source LLMs. Evaluation on ConceptVectors shows that existing unlearning methods minimally impact concept vectors, while directly ablating these vectors demonstrably removes the associated knowledge from the LLMs and significantly reduces their susceptibility to adversarial manipulation. Our results highlight limitations in behavioral-based unlearning evaluations and call for future work to include parametric-based evaluations. To support this, we release our code and benchmark at https://github.com/yihuaihong/ConceptVectors.

Summary

AI-Generated Summary

PDF52December 3, 2024