ChatPaper.aiChatPaper

FedRand : Amélioration de la confidentialité dans l'apprentissage fédéré grâce aux mises à jour randomisées de LoRA sous-paramètres

FedRand: Enhancing Privacy in Federated Learning with Randomized LoRA Subparameter Updates

March 10, 2025
Auteurs: Sangwoo Park, Seanie Lee, Byungjoo Kim, Sung Ju Hwang
cs.AI

Résumé

L'apprentissage fédéré (Federated Learning, FL) est un cadre largement utilisé pour entraîner des modèles de manière décentralisée, garantissant que le serveur central n'a pas d'accès direct aux données des clients locaux. Cependant, cette approche peut encore échouer à préserver pleinement la confidentialité des données, car les modèles des clients locaux sont exposés au serveur central pendant le processus d'agrégation. Ce problème devient encore plus critique lors de l'entraînement de modèles vision-langage (Vision-Language Models, VLMs) avec FL, car les VLMs peuvent facilement mémoriser les instances des données d'entraînement, les rendant vulnérables aux attaques par inférence d'appartenance (Membership Inference Attacks, MIAs). Pour relever ce défi, nous proposons le cadre FedRand, qui évite de divulguer l'ensemble complet des paramètres clients. Dans ce cadre, chaque client sélectionne aléatoirement des sous-paramètres de l'adaptation à faible rang (Low-Rank Adaptation, LoRA) du serveur et conserve les contreparties restantes des poids LoRA comme paramètres privés. Après l'entraînement des deux paramètres sur l'ensemble de données privé du client, seuls les paramètres clients non privés sont renvoyés au serveur pour agrégation. Cette approche atténue le risque d'exposition des paramètres VLM côté client, améliorant ainsi la confidentialité des données. Nous validons empiriquement que FedRand améliore la robustesse contre les MIAs par rapport aux références pertinentes tout en atteignant une précision comparable aux méthodes qui communiquent l'intégralité des paramètres LoRA sur plusieurs ensembles de données de référence.
English
Federated Learning (FL) is a widely used framework for training models in a decentralized manner, ensuring that the central server does not have direct access to data from local clients. However, this approach may still fail to fully preserve data privacy, as models from local clients are exposed to the central server during the aggregation process. This issue becomes even more critical when training vision-language models (VLMs) with FL, as VLMs can easily memorize training data instances, making them vulnerable to membership inference attacks (MIAs). To address this challenge, we propose the FedRand framework, which avoids disclosing the full set of client parameters. In this framework, each client randomly selects subparameters of Low-Rank Adaptation (LoRA) from the server and keeps the remaining counterparts of the LoRA weights as private parameters. After training both parameters on the client's private dataset, only the non-private client parameters are sent back to the server for aggregation. This approach mitigates the risk of exposing client-side VLM parameters, thereby enhancing data privacy. We empirically validate that FedRand improves robustness against MIAs compared to relevant baselines while achieving accuracy comparable to methods that communicate full LoRA parameters across several benchmark datasets.

Summary

AI-Generated Summary

PDF321March 11, 2025