ChatPaper.aiChatPaper

Disapprendimento Efficiente delle Macchine tramite Approssimazione dell'Influenza

Efficient Machine Unlearning via Influence Approximation

July 31, 2025
Autori: Jiawei Liu, Chenwang Wu, Defu Lian, Enhong Chen
cs.AI

Abstract

A causa delle crescenti preoccupazioni sulla privacy, il machine unlearning, che mira a consentire ai modelli di machine learning di "dimenticare" specifici dati di addestramento, ha ricevuto un'attenzione sempre maggiore. Tra i metodi esistenti, l'unlearning basato sull'influenza è emerso come un approccio prominente grazie alla sua capacità di stimare l'impatto dei singoli campioni di addestramento sui parametri del modello senza dover riaddestrare. Tuttavia, questo approccio soffre di un sovraccarico computazionale proibitivo derivante dalla necessità di calcolare la matrice Hessiana e la sua inversa su tutti i campioni di addestramento e i parametri, rendendolo impraticabile per modelli su larga scala e scenari che coinvolgono frequenti richieste di cancellazione dei dati. Ciò evidenzia la difficoltà del dimenticare. Ispirati dalla scienza cognitiva, che suggerisce che memorizzare è più facile che dimenticare, questo articolo stabilisce un collegamento teorico tra il memorizzare (apprendimento incrementale) e il dimenticare (unlearning). Questa connessione consente di affrontare il machine unlearning dalla prospettiva dell'apprendimento incrementale. A differenza dei calcoli Hessiani dispendiosi in termini di tempo nell'unlearning (dimenticare), l'apprendimento incrementale (memorizzare) si basa tipicamente su un'ottimizzazione del gradiente più efficiente, che supporta la teoria cognitiva sopra menzionata. Basandoci su questa connessione, introduciamo l'algoritmo Influence Approximation Unlearning (IAU) per un machine unlearning efficiente dalla prospettiva incrementale. Valutazioni empiriche estensive dimostrano che IAU raggiunge un equilibrio superiore tra garanzia di rimozione, efficienza dell'unlearning e utilità comparabile del modello, superando i metodi all'avanguardia su diversi dataset e architetture di modelli. Il nostro codice è disponibile all'indirizzo https://github.com/Lolo1222/IAU.
English
Due to growing privacy concerns, machine unlearning, which aims at enabling machine learning models to ``forget" specific training data, has received increasing attention. Among existing methods, influence-based unlearning has emerged as a prominent approach due to its ability to estimate the impact of individual training samples on model parameters without retraining. However, this approach suffers from prohibitive computational overhead arising from the necessity to compute the Hessian matrix and its inverse across all training samples and parameters, rendering it impractical for large-scale models and scenarios involving frequent data deletion requests. This highlights the difficulty of forgetting. Inspired by cognitive science, which suggests that memorizing is easier than forgetting, this paper establishes a theoretical link between memorizing (incremental learning) and forgetting (unlearning). This connection allows machine unlearning to be addressed from the perspective of incremental learning. Unlike the time-consuming Hessian computations in unlearning (forgetting), incremental learning (memorizing) typically relies on more efficient gradient optimization, which supports the aforementioned cognitive theory. Based on this connection, we introduce the Influence Approximation Unlearning (IAU) algorithm for efficient machine unlearning from the incremental perspective. Extensive empirical evaluations demonstrate that IAU achieves a superior balance among removal guarantee, unlearning efficiency, and comparable model utility, while outperforming state-of-the-art methods across diverse datasets and model architectures. Our code is available at https://github.com/Lolo1222/IAU.
PDF02August 1, 2025