ReLearn: Забывание через Обучение для Больших Языковых Моделей
ReLearn: Unlearning via Learning for Large Language Models
February 16, 2025
Авторы: Haoming Xu, Ningyuan Zhao, Liming Yang, Sendong Zhao, Shumin Deng, Mengru Wang, Bryan Hooi, Nay Oo, Huajun Chen, Ningyu Zhang
cs.AI
Аннотация
Существующие методы отказа от обучения для больших языковых моделей обычно основаны на обратной оптимизации для снижения вероятностей целевых токенов. Однако этот подход нарушает предсказание последующих токенов, что снижает производительность модели и лингвистическую связность. Более того, существующие метрики оценки переобучения слишком сосредоточены на контекстном забывании, недостаточно оценивая связность и релевантность ответов. Для решения этих проблем мы предлагаем ReLearn - конвейер для эффективного отказа от обучения с использованием аугментации данных и донастройки, а также комплексную систему оценки. Эта система вводит показатели Скорость Забывания Знаний (KFR) и Скорость Сохранения Знаний (KRR) для измерения сохранения уровня знаний, а также Лингвистический Оценочный Балл (LS) для оценки качества генерации. Наши эксперименты показывают, что ReLearn успешно достигает целевого забывания, сохраняя при этом высококачественный вывод. Через механистический анализ мы также демонстрируем, как обратная оптимизация нарушает когерентную генерацию текста, в то время как ReLearn сохраняет эту важную способность. Код доступен по ссылке https://github.com/zjunlp/unlearn.
English
Current unlearning methods for large language models usually rely on reverse
optimization to reduce target token probabilities. However, this paradigm
disrupts the subsequent tokens prediction, degrading model performance and
linguistic coherence. Moreover, existing evaluation metrics overemphasize
contextual forgetting while inadequately assessing response fluency and
relevance. To address these challenges, we propose ReLearn, a data augmentation
and fine-tuning pipeline for effective unlearning, along with a comprehensive
evaluation framework. This framework introduces Knowledge Forgetting Rate (KFR)
and Knowledge Retention Rate (KRR) to measure knowledge-level preservation, and
Linguistic Score (LS) to evaluate generation quality. Our experiments show that
ReLearn successfully achieves targeted forgetting while preserving high-quality
output. Through mechanistic analysis, we further demonstrate how reverse
optimization disrupts coherent text generation, while ReLearn preserves this
essential capability. Code is available at https://github.com/zjunlp/unlearn.Summary
AI-Generated Summary