ChatPaper.aiChatPaper

Désapprentissage automatique pour les modèles génératifs image-à-image

Machine Unlearning for Image-to-Image Generative Models

February 1, 2024
papers.authors: Guihong Li, Hsiang Hsu, Chun-Fu, Chen, Radu Marculescu
cs.AI

papers.abstract

L'oubli machine (machine unlearning) est apparu comme un nouveau paradigme permettant d'effacer délibérément des échantillons de données d'un modèle donné afin de se conformer à des réglementations strictes. Cependant, les méthodes existantes d'oubli machine se sont principalement concentrées sur les modèles de classification, laissant le domaine de l'oubli pour les modèles génératifs relativement inexploré. Cet article sert de pont en comblant cette lacune en proposant un cadre unificateur pour l'oubli machine appliqué aux modèles génératifs image-à-image. Dans ce cadre, nous proposons un algorithme efficace sur le plan computationnel, soutenu par une analyse théorique rigoureuse, qui démontre une dégradation négligeable des performances sur les échantillons conservés, tout en supprimant efficacement les informations des échantillons à oublier. Des études empiriques sur deux ensembles de données à grande échelle, ImageNet-1K et Places-365, montrent en outre que notre algorithme ne dépend pas de la disponibilité des échantillons conservés, ce qui respecte davantage les politiques de conservation des données. À notre connaissance, ce travail est le premier à représenter des explorations systémiques, théoriques et empiriques de l'oubli machine spécifiquement adapté aux modèles génératifs image-à-image. Notre code est disponible à l'adresse suivante : https://github.com/jpmorganchase/l2l-generator-unlearning.
English
Machine unlearning has emerged as a new paradigm to deliberately forget data samples from a given model in order to adhere to stringent regulations. However, existing machine unlearning methods have been primarily focused on classification models, leaving the landscape of unlearning for generative models relatively unexplored. This paper serves as a bridge, addressing the gap by providing a unifying framework of machine unlearning for image-to-image generative models. Within this framework, we propose a computationally-efficient algorithm, underpinned by rigorous theoretical analysis, that demonstrates negligible performance degradation on the retain samples, while effectively removing the information from the forget samples. Empirical studies on two large-scale datasets, ImageNet-1K and Places-365, further show that our algorithm does not rely on the availability of the retain samples, which further complies with data retention policy. To our best knowledge, this work is the first that represents systemic, theoretical, empirical explorations of machine unlearning specifically tailored for image-to-image generative models. Our code is available at https://github.com/jpmorganchase/l2l-generator-unlearning.
PDF132December 15, 2024