Power Transform Revisited: Numerisch Stabil und Föderiert
Power Transform Revisited: Numerically Stable, and Federated
October 6, 2025
papers.authors: Xuefeng Xu, Graham Cormode
cs.AI
papers.abstract
Potenztransformationen sind beliebte parametrische Techniken, um Daten stärker gaußähnlich zu gestalten, und werden häufig als Vorverarbeitungsschritte in der statistischen Analyse und im maschinellen Lernen eingesetzt. Wir stellen jedoch fest, dass direkte Implementierungen von Potenztransformationen unter schwerwiegenden numerischen Instabilitäten leiden, die zu fehlerhaften Ergebnissen oder sogar Abstürzen führen können. In diesem Artikel bieten wir eine umfassende Analyse der Ursachen dieser Instabilitäten und schlagen wirksame Abhilfemaßnahmen vor. Darüber hinaus erweitern wir Potenztransformationen auf das Szenario des föderierten Lernens und behandeln dabei sowohl numerische als auch verteilungsbezogene Herausforderungen, die in diesem Kontext auftreten. Experimente mit realen Datensätzen zeigen, dass unsere Methoden sowohl effektiv als auch robust sind und die Stabilität im Vergleich zu bestehenden Ansätzen erheblich verbessern.
English
Power transforms are popular parametric techniques for making data more
Gaussian-like, and are widely used as preprocessing steps in statistical
analysis and machine learning. However, we find that direct implementations of
power transforms suffer from severe numerical instabilities, which can lead to
incorrect results or even crashes. In this paper, we provide a comprehensive
analysis of the sources of these instabilities and propose effective remedies.
We further extend power transforms to the federated learning setting,
addressing both numerical and distributional challenges that arise in this
context. Experiments on real-world datasets demonstrate that our methods are
both effective and robust, substantially improving stability compared to
existing approaches.