ChatPaper.aiChatPaper

CRISP: Desaprendizado Persistente de Conceitos via Autoencoders Esparsos

CRISP: Persistent Concept Unlearning via Sparse Autoencoders

August 19, 2025
Autores: Tomer Ashuach, Dana Arad, Aaron Mueller, Martin Tutek, Yonatan Belinkov
cs.AI

Resumo

À medida que os modelos de linguagem de grande escala (LLMs) são cada vez mais implantados em aplicações do mundo real, a necessidade de remover seletivamente conhecimentos indesejados, preservando a utilidade do modelo, tornou-se primordial. Trabalhos recentes exploraram autoencoders esparsos (SAEs) para realizar intervenções precisas em características monossemânticas. No entanto, a maioria dos métodos baseados em SAEs opera durante a inferência, o que não cria alterações persistentes nos parâmetros do modelo. Tais intervenções podem ser contornadas ou revertidas por atores maliciosos com acesso aos parâmetros. Apresentamos o CRISP, um método eficiente em parâmetros para o esquecimento persistente de conceitos usando SAEs. O CRISP identifica automaticamente características salientes dos SAEs em múltiplas camadas e suprime suas ativações. Realizamos experimentos com dois LLMs e mostramos que nosso método supera abordagens anteriores em tarefas críticas de esquecimento do benchmark WMDP, removendo com sucesso conhecimentos prejudiciais enquanto preserva capacidades gerais e no domínio. Análises em nível de características revelam que o CRISP alcança uma separação semanticamente coerente entre conceitos-alvo e benignos, permitindo a supressão precisa das características-alvo.
English
As large language models (LLMs) are increasingly deployed in real-world applications, the need to selectively remove unwanted knowledge while preserving model utility has become paramount. Recent work has explored sparse autoencoders (SAEs) to perform precise interventions on monosemantic features. However, most SAE-based methods operate at inference time, which does not create persistent changes in the model's parameters. Such interventions can be bypassed or reversed by malicious actors with parameter access. We introduce CRISP, a parameter-efficient method for persistent concept unlearning using SAEs. CRISP automatically identifies salient SAE features across multiple layers and suppresses their activations. We experiment with two LLMs and show that our method outperforms prior approaches on safety-critical unlearning tasks from the WMDP benchmark, successfully removing harmful knowledge while preserving general and in-domain capabilities. Feature-level analysis reveals that CRISP achieves semantically coherent separation between target and benign concepts, allowing precise suppression of the target features.
PDF152August 25, 2025