Apenas uma transformação simples é suficiente para proteção de dados em Aprendizado Federado Vertical.
Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning
December 16, 2024
Autores: Andrei Semenov, Philip Zmushko, Alexander Pichugin, Aleksandr Beznosikov
cs.AI
Resumo
A Aprendizagem Federada Vertical (AFV) tem como objetivo possibilitar o treinamento colaborativo de modelos de aprendizado profundo mantendo a proteção da privacidade. No entanto, o procedimento de AFV ainda possui componentes vulneráveis a ataques por partes maliciosas. Em nosso trabalho, consideramos ataques de reconstrução de características, um risco comum que visa comprometer os dados de entrada. Teoricamente, afirmamos que os ataques de reconstrução de características não podem ter sucesso sem o conhecimento da distribuição prévia dos dados. Consequentemente, demonstramos que até mesmo transformações simples na arquitetura do modelo podem impactar significativamente a proteção dos dados de entrada durante a AFV. Confirmamos essas descobertas com resultados experimentais, mostrando que os modelos baseados em MLP são resistentes a ataques de reconstrução de características de ponta.
English
Vertical Federated Learning (VFL) aims to enable collaborative training of
deep learning models while maintaining privacy protection. However, the VFL
procedure still has components that are vulnerable to attacks by malicious
parties. In our work, we consider feature reconstruction attacks, a common risk
targeting input data compromise. We theoretically claim that feature
reconstruction attacks cannot succeed without knowledge of the prior
distribution on data. Consequently, we demonstrate that even simple model
architecture transformations can significantly impact the protection of input
data during VFL. Confirming these findings with experimental results, we show
that MLP-based models are resistant to state-of-the-art feature reconstruction
attacks.Summary
AI-Generated Summary