Évaluation intrinsèque du désapprentissage à l'aide de traces de connaissances paramétriques
Intrinsic Evaluation of Unlearning Using Parametric Knowledge Traces
June 17, 2024
Auteurs: Yihuai Hong, Lei Yu, Shauli Ravfogel, Haiqin Yang, Mor Geva
cs.AI
Résumé
La tâche de "désapprentissage" de certains concepts dans les grands modèles de langage (LLMs) a récemment suscité une attention considérable, en raison de son importance pour atténuer les comportements indésirables des modèles, tels que la génération d'informations nuisibles, privées ou incorrectes. Les protocoles actuels pour évaluer les méthodes de désapprentissage reposent largement sur des tests comportementaux, sans surveiller la présence des connaissances désapprises dans les paramètres du modèle. Ces connaissances résiduelles peuvent être exploitées de manière antagoniste pour récupérer les informations effacées après le désapprentissage. Nous soutenons que le désapprentissage devrait également être évalué en interne, en considérant les changements dans les traces de connaissances paramétriques des concepts désappris. À cette fin, nous proposons une méthodologie générale pour identifier des directions dans l'espace des paramètres (appelées "vecteurs de concepts") qui encodent des concepts concrets, et construisons ConceptVectors, un ensemble de données de référence contenant des centaines de concepts courants et leurs traces de connaissances paramétriques au sein de deux LLMs open-source. L'évaluation sur ConceptVectors montre que les méthodes de désapprentissage existantes ont un impact minimal sur les vecteurs de concepts, tandis que l'ablation directe de ces vecteurs supprime de manière démontrable les connaissances associées des LLMs et réduit significativement leur vulnérabilité à la manipulation antagoniste. Nos résultats mettent en lumière les limites des évaluations de désapprentissage basées sur le comportement et appellent à inclure des évaluations basées sur les paramètres dans les travaux futurs. Pour soutenir cela, nous publions notre code et notre ensemble de données de référence à l'adresse https://github.com/yihuaihong/ConceptVectors.
English
The task of "unlearning" certain concepts in large language models (LLMs) has
attracted immense attention recently, due to its importance for mitigating
undesirable model behaviours, such as the generation of harmful, private, or
incorrect information. Current protocols to evaluate unlearning methods largely
rely on behavioral tests, without monitoring the presence of unlearned
knowledge within the model's parameters. This residual knowledge can be
adversarially exploited to recover the erased information post-unlearning. We
argue that unlearning should also be evaluated internally, by considering
changes in the parametric knowledge traces of the unlearned concepts. To this
end, we propose a general methodology for eliciting directions in the parameter
space (termed "concept vectors") that encode concrete concepts, and construct
ConceptVectors, a benchmark dataset containing hundreds of common concepts and
their parametric knowledge traces within two open-source LLMs. Evaluation on
ConceptVectors shows that existing unlearning methods minimally impact concept
vectors, while directly ablating these vectors demonstrably removes the
associated knowledge from the LLMs and significantly reduces their
susceptibility to adversarial manipulation. Our results highlight limitations
in behavioral-based unlearning evaluations and call for future work to include
parametric-based evaluations. To support this, we release our code and
benchmark at https://github.com/yihuaihong/ConceptVectors.Summary
AI-Generated Summary