ChatPaper.aiChatPaper

ReLearn: Забывание через Обучение для Больших Языковых Моделей

ReLearn: Unlearning via Learning for Large Language Models

February 16, 2025
Авторы: Haoming Xu, Ningyuan Zhao, Liming Yang, Sendong Zhao, Shumin Deng, Mengru Wang, Bryan Hooi, Nay Oo, Huajun Chen, Ningyu Zhang
cs.AI

Аннотация

Существующие методы отказа от обучения для больших языковых моделей обычно основаны на обратной оптимизации для снижения вероятностей целевых токенов. Однако этот подход нарушает предсказание последующих токенов, что снижает производительность модели и лингвистическую связность. Более того, существующие метрики оценки переобучения слишком сосредоточены на контекстном забывании, недостаточно оценивая связность и релевантность ответов. Для решения этих проблем мы предлагаем ReLearn - конвейер для эффективного отказа от обучения с использованием аугментации данных и донастройки, а также комплексную систему оценки. Эта система вводит показатели Скорость Забывания Знаний (KFR) и Скорость Сохранения Знаний (KRR) для измерения сохранения уровня знаний, а также Лингвистический Оценочный Балл (LS) для оценки качества генерации. Наши эксперименты показывают, что ReLearn успешно достигает целевого забывания, сохраняя при этом высококачественный вывод. Через механистический анализ мы также демонстрируем, как обратная оптимизация нарушает когерентную генерацию текста, в то время как ReLearn сохраняет эту важную способность. Код доступен по ссылке https://github.com/zjunlp/unlearn.
English
Current unlearning methods for large language models usually rely on reverse optimization to reduce target token probabilities. However, this paradigm disrupts the subsequent tokens prediction, degrading model performance and linguistic coherence. Moreover, existing evaluation metrics overemphasize contextual forgetting while inadequately assessing response fluency and relevance. To address these challenges, we propose ReLearn, a data augmentation and fine-tuning pipeline for effective unlearning, along with a comprehensive evaluation framework. This framework introduces Knowledge Forgetting Rate (KFR) and Knowledge Retention Rate (KRR) to measure knowledge-level preservation, and Linguistic Score (LS) to evaluate generation quality. Our experiments show that ReLearn successfully achieves targeted forgetting while preserving high-quality output. Through mechanistic analysis, we further demonstrate how reverse optimization disrupts coherent text generation, while ReLearn preserves this essential capability. Code is available at https://github.com/zjunlp/unlearn.

Summary

AI-Generated Summary

PDF292February 18, 2025