Power Transform Herzien: Numeriek Stabiel en Gefedereerd
Power Transform Revisited: Numerically Stable, and Federated
October 6, 2025
Auteurs: Xuefeng Xu, Graham Cormode
cs.AI
Samenvatting
Power-transformaties zijn populaire parametrische technieken om data meer Gaussiaans te maken en worden veelvuldig gebruikt als voorbewerkingsstappen in statistische analyse en machine learning. We constateren echter dat directe implementaties van power-transformaties te lijden hebben onder ernstige numerieke instabiliteiten, wat kan leiden tot incorrecte resultaten of zelfs crashes. In dit artikel bieden we een uitgebreide analyse van de bronnen van deze instabiliteiten en stellen we effectieve oplossingen voor. We breiden power-transformaties verder uit naar de federated learning-omgeving, waarbij we zowel numerieke als distributie-uitdagingen aanpakken die in deze context ontstaan. Experimenten op real-world datasets tonen aan dat onze methoden zowel effectief als robuust zijn, en de stabiliteit aanzienlijk verbeteren in vergelijking met bestaande benaderingen.
English
Power transforms are popular parametric techniques for making data more
Gaussian-like, and are widely used as preprocessing steps in statistical
analysis and machine learning. However, we find that direct implementations of
power transforms suffer from severe numerical instabilities, which can lead to
incorrect results or even crashes. In this paper, we provide a comprehensive
analysis of the sources of these instabilities and propose effective remedies.
We further extend power transforms to the federated learning setting,
addressing both numerical and distributional challenges that arise in this
context. Experiments on real-world datasets demonstrate that our methods are
both effective and robust, substantially improving stability compared to
existing approaches.