ChatPaper.aiChatPaper

Система визуальной аналитики Unlearning Comparator для сравнительной оценки методов машинного "забывания"

Unlearning Comparator: A Visual Analytics System for Comparative Evaluation of Machine Unlearning Methods

August 18, 2025
Авторы: Jaeung Lee, Suhyeon Yu, Yurim Jang, Simon S. Woo, Jaemin Jo
cs.AI

Аннотация

Машинное "забывание" (Machine Unlearning, MU) направлено на удаление целевых обучающих данных из обученной модели, чтобы удаленные данные больше не влияли на поведение модели, выполняя обязательства "права на забвение" в соответствии с законами о защите данных. Однако мы наблюдаем, что исследователи в этой быстро развивающейся области сталкиваются с трудностями в анализе и понимании поведения различных методов MU, особенно в отношении трех фундаментальных принципов: точности, эффективности и конфиденциальности. В результате они часто полагаются на агрегированные метрики и ситуативные оценки, что затрудняет точное сопоставление компромиссов между методами. Чтобы заполнить этот пробел, мы представляем систему визуальной аналитики Unlearning Comparator, предназначенную для облегчения систематической оценки методов MU. Наша система поддерживает две важные задачи в процессе оценки: сравнение моделей и симуляцию атак. Во-первых, она позволяет пользователю сравнивать поведение двух моделей, например, модели, созданной определенным методом, и базовой модели, переобученной с нуля, на уровнях классов, экземпляров и слоев, чтобы лучше понять изменения, внесенные после "забывания". Во-вторых, наша система симулирует атаки на определение принадлежности (Membership Inference Attacks, MIAs) для оценки конфиденциальности метода, где злоумышленник пытается определить, входили ли определенные образцы данных в исходный обучающий набор. Мы оцениваем нашу систему с помощью кейс-стади, визуально анализируя известные методы MU, и демонстрируем, что она помогает пользователю не только понять поведение моделей, но и получить инсайты, которые могут способствовать улучшению методов MU.
English
Machine Unlearning (MU) aims to remove target training data from a trained model so that the removed data no longer influences the model's behavior, fulfilling "right to be forgotten" obligations under data privacy laws. Yet, we observe that researchers in this rapidly emerging field face challenges in analyzing and understanding the behavior of different MU methods, especially in terms of three fundamental principles in MU: accuracy, efficiency, and privacy. Consequently, they often rely on aggregate metrics and ad-hoc evaluations, making it difficult to accurately assess the trade-offs between methods. To fill this gap, we introduce a visual analytics system, Unlearning Comparator, designed to facilitate the systematic evaluation of MU methods. Our system supports two important tasks in the evaluation process: model comparison and attack simulation. First, it allows the user to compare the behaviors of two models, such as a model generated by a certain method and a retrained baseline, at class-, instance-, and layer-levels to better understand the changes made after unlearning. Second, our system simulates membership inference attacks (MIAs) to evaluate the privacy of a method, where an attacker attempts to determine whether specific data samples were part of the original training set. We evaluate our system through a case study visually analyzing prominent MU methods and demonstrate that it helps the user not only understand model behaviors but also gain insights that can inform the improvement of MU methods.
PDF42August 19, 2025