ChatPaper.aiChatPaper

Een eenvoudige transformatie is voldoende voor gegevensbescherming in verticaal gefedereerd leren.

Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning

December 16, 2024
Auteurs: Andrei Semenov, Philip Zmushko, Alexander Pichugin, Aleksandr Beznosikov
cs.AI

Samenvatting

Verticale Gefedereerde Leer (VFL) heeft als doel om samenwerkend training van diepe leermodellen mogelijk te maken terwijl de privacy beschermd blijft. Echter, het VFL proces heeft nog steeds onderdelen die kwetsbaar zijn voor aanvallen door kwaadwillende partijen. In ons werk onderzoeken we feature reconstructie aanvallen, een veelvoorkomend risico gericht op compromitteren van invoerdata. We beweren theoretisch dat feature reconstructie aanvallen niet kunnen slagen zonder kennis van de voorafgaande verdeling van data. Bijgevolg tonen we aan dat zelfs eenvoudige modelarchitectuurtransformaties aanzienlijke invloed kunnen hebben op de bescherming van invoerdata tijdens VFL. Door deze bevindingen te bevestigen met experimentele resultaten, laten we zien dat op MLP gebaseerde modellen bestand zijn tegen geavanceerde feature reconstructie aanvallen.
English
Vertical Federated Learning (VFL) aims to enable collaborative training of deep learning models while maintaining privacy protection. However, the VFL procedure still has components that are vulnerable to attacks by malicious parties. In our work, we consider feature reconstruction attacks, a common risk targeting input data compromise. We theoretically claim that feature reconstruction attacks cannot succeed without knowledge of the prior distribution on data. Consequently, we demonstrate that even simple model architecture transformations can significantly impact the protection of input data during VFL. Confirming these findings with experimental results, we show that MLP-based models are resistant to state-of-the-art feature reconstruction attacks.
PDF22December 17, 2024