Transformation de puissance revisitée : Stabilité numérique et fédérée
Power Transform Revisited: Numerically Stable, and Federated
October 6, 2025
papers.authors: Xuefeng Xu, Graham Cormode
cs.AI
papers.abstract
Les transformations de puissance sont des techniques paramétriques populaires pour rendre les données plus proches d'une distribution gaussienne, et sont largement utilisées comme étapes de prétraitement dans l'analyse statistique et l'apprentissage automatique. Cependant, nous constatons que les implémentations directes des transformations de puissance souffrent de graves instabilités numériques, pouvant conduire à des résultats incorrects voire à des plantages. Dans cet article, nous proposons une analyse approfondie des sources de ces instabilités et suggérons des remèdes efficaces. Nous étendons également les transformations de puissance au cadre de l'apprentissage fédéré, en abordant à la fois les défis numériques et distributionnels qui surviennent dans ce contexte. Des expériences sur des jeux de données réels démontrent que nos méthodes sont à la fois efficaces et robustes, améliorant considérablement la stabilité par rapport aux approches existantes.
English
Power transforms are popular parametric techniques for making data more
Gaussian-like, and are widely used as preprocessing steps in statistical
analysis and machine learning. However, we find that direct implementations of
power transforms suffer from severe numerical instabilities, which can lead to
incorrect results or even crashes. In this paper, we provide a comprehensive
analysis of the sources of these instabilities and propose effective remedies.
We further extend power transforms to the federated learning setting,
addressing both numerical and distributional challenges that arise in this
context. Experiments on real-world datasets demonstrate that our methods are
both effective and robust, substantially improving stability compared to
existing approaches.