ChatPaper.aiChatPaper

Transformation de puissance revisitée : Stabilité numérique et fédérée

Power Transform Revisited: Numerically Stable, and Federated

October 6, 2025
papers.authors: Xuefeng Xu, Graham Cormode
cs.AI

papers.abstract

Les transformations de puissance sont des techniques paramétriques populaires pour rendre les données plus proches d'une distribution gaussienne, et sont largement utilisées comme étapes de prétraitement dans l'analyse statistique et l'apprentissage automatique. Cependant, nous constatons que les implémentations directes des transformations de puissance souffrent de graves instabilités numériques, pouvant conduire à des résultats incorrects voire à des plantages. Dans cet article, nous proposons une analyse approfondie des sources de ces instabilités et suggérons des remèdes efficaces. Nous étendons également les transformations de puissance au cadre de l'apprentissage fédéré, en abordant à la fois les défis numériques et distributionnels qui surviennent dans ce contexte. Des expériences sur des jeux de données réels démontrent que nos méthodes sont à la fois efficaces et robustes, améliorant considérablement la stabilité par rapport aux approches existantes.
English
Power transforms are popular parametric techniques for making data more Gaussian-like, and are widely used as preprocessing steps in statistical analysis and machine learning. However, we find that direct implementations of power transforms suffer from severe numerical instabilities, which can lead to incorrect results or even crashes. In this paper, we provide a comprehensive analysis of the sources of these instabilities and propose effective remedies. We further extend power transforms to the federated learning setting, addressing both numerical and distributional challenges that arise in this context. Experiments on real-world datasets demonstrate that our methods are both effective and robust, substantially improving stability compared to existing approaches.
PDF02October 7, 2025