Новая фреймворк федеративного обучения против атак с инверсией градиента
A New Federated Learning Framework Against Gradient Inversion Attacks
December 10, 2024
Авторы: Pengxin Guo, Shuang Zeng, Wenhao Chen, Xiaodan Zhang, Weihong Ren, Yuyin Zhou, Liangqiong Qu
cs.AI
Аннотация
Федеративное обучение (FL) направлено на защиту конфиденциальности данных, позволяя клиентам совместно обучать модели машинного обучения, не раскрывая их исходные данные. Однако недавние исследования показывают, что информация, обмениваемая во время FL, подвержена атакам градиентного инвертирования (GIA), и в связи с этим было интегрировано множество методов, сохраняющих конфиденциальность, в FL для предотвращения таких атак, таких как безопасные многосторонние вычисления (SMC), гомоморфное шифрование (HE) и дифференциальная конфиденциальность (DP). Несмотря на их способность защищать конфиденциальность данных, эти подходы неизбежно включают значительные компромиссы между конфиденциальностью и полезностью. Переосмыслив ключевую проблему утечки конфиденциальности в FL под GIA, заключающуюся в частом обмене градиентами модели, содержащими конфиденциальные данные, мы предлагаем новый подход, разработав новую рамку FL для сохранения конфиденциальности, которая эффективно "разрывает прямую связь" между общими параметрами и локальными конфиденциальными данными для защиты от GIA. Конкретно, мы предлагаем рамку Федеративного обучения с гиперсетями (HyperFL), которая использует гиперсети для генерации параметров локальной модели, и только параметры гиперсети загружаются на сервер для агрегации. Теоретический анализ демонстрирует скорость сходимости предложенного HyperFL, в то время как обширные экспериментальные результаты показывают способность сохранения конфиденциальности и сопоставимую производительность HyperFL. Код доступен по ссылке https://github.com/Pengxin-Guo/HyperFL.
English
Federated Learning (FL) aims to protect data privacy by enabling clients to
collectively train machine learning models without sharing their raw data.
However, recent studies demonstrate that information exchanged during FL is
subject to Gradient Inversion Attacks (GIA) and, consequently, a variety of
privacy-preserving methods have been integrated into FL to thwart such attacks,
such as Secure Multi-party Computing (SMC), Homomorphic Encryption (HE), and
Differential Privacy (DP). Despite their ability to protect data privacy, these
approaches inherently involve substantial privacy-utility trade-offs. By
revisiting the key to privacy exposure in FL under GIA, which lies in the
frequent sharing of model gradients that contain private data, we take a new
perspective by designing a novel privacy preserve FL framework that effectively
``breaks the direct connection'' between the shared parameters and the local
private data to defend against GIA. Specifically, we propose a Hypernetwork
Federated Learning (HyperFL) framework that utilizes hypernetworks to generate
the parameters of the local model and only the hypernetwork parameters are
uploaded to the server for aggregation. Theoretical analyses demonstrate the
convergence rate of the proposed HyperFL, while extensive experimental results
show the privacy-preserving capability and comparable performance of HyperFL.
Code is available at https://github.com/Pengxin-Guo/HyperFL.Summary
AI-Generated Summary