Eine einfache Transformation genügt bereits zum Schutz von Daten in vertikalem föderiertem Lernen.
Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning
December 16, 2024
Autoren: Andrei Semenov, Philip Zmushko, Alexander Pichugin, Aleksandr Beznosikov
cs.AI
Zusammenfassung
Vertikales Föderiertes Lernen (VFL) zielt darauf ab, das gemeinsame Training von Deep-Learning-Modellen zu ermöglichen, während der Schutz der Privatsphäre gewährleistet bleibt. Allerdings weist das VFL-Verfahren immer noch Komponenten auf, die anfällig für Angriffe durch bösartige Parteien sind. In unserer Arbeit betrachten wir Feature-Rekonstruktionsangriffe, ein häufiges Risiko, das auf die Kompromittierung von Eingabedaten abzielt. Wir behaupten theoretisch, dass Feature-Rekonstruktionsangriffe ohne Kenntnis der vorherigen Verteilung von Daten nicht erfolgreich sein können. Folglich zeigen wir, dass selbst einfache Modellarchitektur-Transformationen den Schutz von Eingabedaten während des VFL erheblich beeinflussen können. Durch die Bestätigung dieser Ergebnisse mit experimentellen Resultaten zeigen wir, dass MLP-basierte Modelle gegen Feature-Rekonstruktionsangriffe auf dem neuesten Stand der Technik resistent sind.
English
Vertical Federated Learning (VFL) aims to enable collaborative training of
deep learning models while maintaining privacy protection. However, the VFL
procedure still has components that are vulnerable to attacks by malicious
parties. In our work, we consider feature reconstruction attacks, a common risk
targeting input data compromise. We theoretically claim that feature
reconstruction attacks cannot succeed without knowledge of the prior
distribution on data. Consequently, we demonstrate that even simple model
architecture transformations can significantly impact the protection of input
data during VFL. Confirming these findings with experimental results, we show
that MLP-based models are resistant to state-of-the-art feature reconstruction
attacks.Summary
AI-Generated Summary