垂直フェデレーテッドラーニングにおけるデータ保護には、単純な変換が十分である
Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning
December 16, 2024
著者: Andrei Semenov, Philip Zmushko, Alexander Pichugin, Aleksandr Beznosikov
cs.AI
要旨
Vertical Federated Learning(VFL)は、プライバシー保護を維持しながら深層学習モデルの共同トレーニングを可能にすることを目的としています。ただし、VFL手順には、悪意のある第三者による攻撃に対して脆弱なコンポーネントがまだ存在しています。私たちの研究では、入力データの侵害を狙った一般的なリスクである特徴再構築攻撃を考慮しています。理論的には、特徴再構築攻撃はデータの事前分布の知識なしには成功しないと主張しています。その結果、単純なモデルアーキテクチャの変換でも、VFL中の入力データの保護に大きな影響を与えることを実証します。これらの結果を実験結果で裏付けることで、MLPベースのモデルが最先端の特徴再構築攻撃に対して耐性を持つことを示しています。
English
Vertical Federated Learning (VFL) aims to enable collaborative training of
deep learning models while maintaining privacy protection. However, the VFL
procedure still has components that are vulnerable to attacks by malicious
parties. In our work, we consider feature reconstruction attacks, a common risk
targeting input data compromise. We theoretically claim that feature
reconstruction attacks cannot succeed without knowledge of the prior
distribution on data. Consequently, we demonstrate that even simple model
architecture transformations can significantly impact the protection of input
data during VFL. Confirming these findings with experimental results, we show
that MLP-based models are resistant to state-of-the-art feature reconstruction
attacks.Summary
AI-Generated Summary