ZJUKLAB на SemEval-2025, задача 4: Забывание через слияние моделей
ZJUKLAB at SemEval-2025 Task 4: Unlearning via Model Merging
March 27, 2025
Авторы: Haoming Xu, Shuxun Wang, Yanqiu Zhao, Yi Zhong, Ziyan Jiang, Ningyuan Zhao, Shumin Deng, Huajun Chen, Ningyu Zhang
cs.AI
Аннотация
В данной статье представлена заявка команды ZJUKLAB на участие в задаче SemEval-2025 Task 4: Удаление чувствительного контента из больших языковых моделей. Цель задачи заключается в избирательном удалении чувствительных знаний из больших языковых моделей, избегая как чрезмерного, так и недостаточного забывания. Мы предлагаем систему удаления, которая использует метод объединения моделей (в частности, TIES-Merging), комбинируя две специализированные модели в более сбалансированную модель с удаленными данными. Наша система демонстрирует конкурентоспособные результаты, занимая второе место среди 26 команд, с онлайн-оценкой 0.944 для Task Aggregate и 0.487 для общего Aggregate. В этой статье мы также проводим локальные эксперименты и выполняем всесторонний анализ процесса удаления, изучая траектории производительности, динамику потерь и перспективы весов, а также несколько дополнительных экспериментов, чтобы понять эффективность нашего метода. Кроме того, мы анализируем недостатки нашего метода и метрик оценки, подчеркивая, что оценки MIA и метрики на основе ROUGE сами по себе недостаточны для полной оценки успешного удаления. Наконец, мы подчеркиваем необходимость более комплексных методик оценки и переосмысления целей удаления в будущих исследованиях. Код доступен по адресу https://github.com/zjunlp/unlearn/tree/main/semeval25.
English
This paper presents the ZJUKLAB team's submission for SemEval-2025 Task 4:
Unlearning Sensitive Content from Large Language Models. This task aims to
selectively erase sensitive knowledge from large language models, avoiding both
over-forgetting and under-forgetting issues. We propose an unlearning system
that leverages Model Merging (specifically TIES-Merging), combining two
specialized models into a more balanced unlearned model. Our system achieves
competitive results, ranking second among 26 teams, with an online score of
0.944 for Task Aggregate and 0.487 for overall Aggregate. In this paper, we
also conduct local experiments and perform a comprehensive analysis of the
unlearning process, examining performance trajectories, loss dynamics, and
weight perspectives, along with several supplementary experiments, to
understand the effectiveness of our method. Furthermore, we analyze the
shortcomings of our method and evaluation metrics, emphasizing that MIA scores
and ROUGE-based metrics alone are insufficient to fully evaluate successful
unlearning. Finally, we emphasize the need for more comprehensive evaluation
methodologies and rethinking of unlearning objectives in future research. Code
is available at https://github.com/zjunlp/unlearn/tree/main/semeval25.Summary
AI-Generated Summary