ChatPaper.aiChatPaper

Desaprendizaje Eficiente en Máquinas mediante Aproximación de Influencia

Efficient Machine Unlearning via Influence Approximation

July 31, 2025
Autores: Jiawei Liu, Chenwang Wu, Defu Lian, Enhong Chen
cs.AI

Resumen

Debido a las crecientes preocupaciones sobre la privacidad, el desaprendizaje en máquinas, que busca permitir que los modelos de aprendizaje automático "olviden" datos específicos de entrenamiento, ha recibido una atención cada vez mayor. Entre los métodos existentes, el desaprendizaje basado en influencia ha surgido como un enfoque destacado debido a su capacidad para estimar el impacto de muestras individuales de entrenamiento en los parámetros del modelo sin necesidad de reentrenamiento. Sin embargo, este enfoque sufre de una sobrecarga computacional prohibitiva que surge de la necesidad de calcular la matriz Hessiana y su inversa en todas las muestras de entrenamiento y parámetros, lo que lo hace poco práctico para modelos a gran escala y escenarios que involucran solicitudes frecuentes de eliminación de datos. Esto resalta la dificultad de olvidar. Inspirados por la ciencia cognitiva, que sugiere que memorizar es más fácil que olvidar, este artículo establece un vínculo teórico entre memorizar (aprendizaje incremental) y olvidar (desaprendizaje). Esta conexión permite abordar el desaprendizaje en máquinas desde la perspectiva del aprendizaje incremental. A diferencia de los cálculos de la Hessiana que consumen tiempo en el desaprendizaje (olvidar), el aprendizaje incremental (memorizar) generalmente se basa en una optimización de gradiente más eficiente, lo que respalda la teoría cognitiva mencionada. Basándonos en esta conexión, presentamos el algoritmo de Desaprendizaje por Aproximación de Influencia (IAU, por sus siglas en inglés) para un desaprendizaje eficiente en máquinas desde la perspectiva incremental. Evaluaciones empíricas extensas demuestran que IAU logra un equilibrio superior entre la garantía de eliminación, la eficiencia del desaprendizaje y una utilidad del modelo comparable, superando a los métodos más avanzados en diversos conjuntos de datos y arquitecturas de modelos. Nuestro código está disponible en https://github.com/Lolo1222/IAU.
English
Due to growing privacy concerns, machine unlearning, which aims at enabling machine learning models to ``forget" specific training data, has received increasing attention. Among existing methods, influence-based unlearning has emerged as a prominent approach due to its ability to estimate the impact of individual training samples on model parameters without retraining. However, this approach suffers from prohibitive computational overhead arising from the necessity to compute the Hessian matrix and its inverse across all training samples and parameters, rendering it impractical for large-scale models and scenarios involving frequent data deletion requests. This highlights the difficulty of forgetting. Inspired by cognitive science, which suggests that memorizing is easier than forgetting, this paper establishes a theoretical link between memorizing (incremental learning) and forgetting (unlearning). This connection allows machine unlearning to be addressed from the perspective of incremental learning. Unlike the time-consuming Hessian computations in unlearning (forgetting), incremental learning (memorizing) typically relies on more efficient gradient optimization, which supports the aforementioned cognitive theory. Based on this connection, we introduce the Influence Approximation Unlearning (IAU) algorithm for efficient machine unlearning from the incremental perspective. Extensive empirical evaluations demonstrate that IAU achieves a superior balance among removal guarantee, unlearning efficiency, and comparable model utility, while outperforming state-of-the-art methods across diverse datasets and model architectures. Our code is available at https://github.com/Lolo1222/IAU.
PDF02August 1, 2025