Для защиты данных в вертикальном федеративном обучении достаточно простого преобразования.
Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning
December 16, 2024
Авторы: Andrei Semenov, Philip Zmushko, Alexander Pichugin, Aleksandr Beznosikov
cs.AI
Аннотация
Вертикальное федеративное обучение (VFL) направлено на обеспечение совместного обучения моделей глубокого обучения с сохранением защиты конфиденциальности. Однако процесс VFL все еще имеет компоненты, уязвимые для атак со стороны злонамеренных сторон. В нашей работе мы рассматриваем атаки на восстановление признаков, распространенный риск, направленный на компрометацию входных данных. Мы теоретически утверждаем, что атаки на восстановление признаков не могут привести к успеху без знания априорного распределения данных. Следовательно, мы демонстрируем, что даже простые преобразования архитектуры модели могут значительно повлиять на защиту входных данных во время VFL. Подтверждая эти результаты экспериментально, мы показываем, что модели на основе MLP устойчивы к атакам на восстановление признаков, считающимися передовыми.
English
Vertical Federated Learning (VFL) aims to enable collaborative training of
deep learning models while maintaining privacy protection. However, the VFL
procedure still has components that are vulnerable to attacks by malicious
parties. In our work, we consider feature reconstruction attacks, a common risk
targeting input data compromise. We theoretically claim that feature
reconstruction attacks cannot succeed without knowledge of the prior
distribution on data. Consequently, we demonstrate that even simple model
architecture transformations can significantly impact the protection of input
data during VFL. Confirming these findings with experimental results, we show
that MLP-based models are resistant to state-of-the-art feature reconstruction
attacks.Summary
AI-Generated Summary