Een eenvoudige transformatie is voldoende voor gegevensbescherming in verticaal gefedereerd leren.
Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning
December 16, 2024
Auteurs: Andrei Semenov, Philip Zmushko, Alexander Pichugin, Aleksandr Beznosikov
cs.AI
Samenvatting
Verticale Gefedereerde Leer (VFL) heeft als doel om samenwerkend training van diepe leermodellen mogelijk te maken terwijl de privacy beschermd blijft. Echter, het VFL proces heeft nog steeds onderdelen die kwetsbaar zijn voor aanvallen door kwaadwillende partijen. In ons werk onderzoeken we feature reconstructie aanvallen, een veelvoorkomend risico gericht op compromitteren van invoerdata. We beweren theoretisch dat feature reconstructie aanvallen niet kunnen slagen zonder kennis van de voorafgaande verdeling van data. Bijgevolg tonen we aan dat zelfs eenvoudige modelarchitectuurtransformaties aanzienlijke invloed kunnen hebben op de bescherming van invoerdata tijdens VFL. Door deze bevindingen te bevestigen met experimentele resultaten, laten we zien dat op MLP gebaseerde modellen bestand zijn tegen geavanceerde feature reconstructie aanvallen.
English
Vertical Federated Learning (VFL) aims to enable collaborative training of
deep learning models while maintaining privacy protection. However, the VFL
procedure still has components that are vulnerable to attacks by malicious
parties. In our work, we consider feature reconstruction attacks, a common risk
targeting input data compromise. We theoretically claim that feature
reconstruction attacks cannot succeed without knowledge of the prior
distribution on data. Consequently, we demonstrate that even simple model
architecture transformations can significantly impact the protection of input
data during VFL. Confirming these findings with experimental results, we show
that MLP-based models are resistant to state-of-the-art feature reconstruction
attacks.