ChatPaper.aiChatPaper

이미지-이미지 생성 모델을 위한 머신 언러닝

Machine Unlearning for Image-to-Image Generative Models

February 1, 2024
저자: Guihong Li, Hsiang Hsu, Chun-Fu, Chen, Radu Marculescu
cs.AI

초록

머신 언러닝(machine unlearning)은 엄격한 규제를 준수하기 위해 주어진 모델에서 데이터 샘플을 의도적으로 잊게 하는 새로운 패러다임으로 등장했습니다. 그러나 기존의 머신 언러닝 방법은 주로 분류 모델에 초점을 맞추어 왔으며, 생성 모델에 대한 언러닝 연구는 상대적으로 미진한 상태로 남아 있었습니다. 본 논문은 이러한 간극을 메우기 위한 가교 역할을 하며, 이미지-투-이미지 생성 모델을 위한 머신 언러닝의 통합 프레임워크를 제시합니다. 이 프레임워크 내에서, 우리는 엄밀한 이론적 분석을 기반으로 한 계산 효율적인 알고리즘을 제안합니다. 이 알고리즘은 잊어야 할 샘플의 정보를 효과적으로 제거하면서도 유지해야 할 샘플에 대한 성능 저하를 미미한 수준으로 유지합니다. ImageNet-1K와 Places-365라는 두 대규모 데이터셋에 대한 실험적 연구는 또한 우리의 알고리즘이 유지 샘플의 가용성에 의존하지 않음을 보여주며, 이는 데이터 보존 정책을 더욱 잘 준수함을 의미합니다. 우리가 아는 한, 이 연구는 이미지-투-이미지 생성 모델에 특화된 머신 언러닝에 대한 체계적, 이론적, 실험적 탐구를 최초로 제시한 작업입니다. 우리의 코드는 https://github.com/jpmorganchase/l2l-generator-unlearning에서 확인할 수 있습니다.
English
Machine unlearning has emerged as a new paradigm to deliberately forget data samples from a given model in order to adhere to stringent regulations. However, existing machine unlearning methods have been primarily focused on classification models, leaving the landscape of unlearning for generative models relatively unexplored. This paper serves as a bridge, addressing the gap by providing a unifying framework of machine unlearning for image-to-image generative models. Within this framework, we propose a computationally-efficient algorithm, underpinned by rigorous theoretical analysis, that demonstrates negligible performance degradation on the retain samples, while effectively removing the information from the forget samples. Empirical studies on two large-scale datasets, ImageNet-1K and Places-365, further show that our algorithm does not rely on the availability of the retain samples, which further complies with data retention policy. To our best knowledge, this work is the first that represents systemic, theoretical, empirical explorations of machine unlearning specifically tailored for image-to-image generative models. Our code is available at https://github.com/jpmorganchase/l2l-generator-unlearning.
PDF132December 15, 2024