ChatPaper.aiChatPaper

Power Transform Revisited: Numerisch Stabil und Föderiert

Power Transform Revisited: Numerically Stable, and Federated

October 6, 2025
papers.authors: Xuefeng Xu, Graham Cormode
cs.AI

papers.abstract

Potenztransformationen sind beliebte parametrische Techniken, um Daten stärker gaußähnlich zu gestalten, und werden häufig als Vorverarbeitungsschritte in der statistischen Analyse und im maschinellen Lernen eingesetzt. Wir stellen jedoch fest, dass direkte Implementierungen von Potenztransformationen unter schwerwiegenden numerischen Instabilitäten leiden, die zu fehlerhaften Ergebnissen oder sogar Abstürzen führen können. In diesem Artikel bieten wir eine umfassende Analyse der Ursachen dieser Instabilitäten und schlagen wirksame Abhilfemaßnahmen vor. Darüber hinaus erweitern wir Potenztransformationen auf das Szenario des föderierten Lernens und behandeln dabei sowohl numerische als auch verteilungsbezogene Herausforderungen, die in diesem Kontext auftreten. Experimente mit realen Datensätzen zeigen, dass unsere Methoden sowohl effektiv als auch robust sind und die Stabilität im Vergleich zu bestehenden Ansätzen erheblich verbessern.
English
Power transforms are popular parametric techniques for making data more Gaussian-like, and are widely used as preprocessing steps in statistical analysis and machine learning. However, we find that direct implementations of power transforms suffer from severe numerical instabilities, which can lead to incorrect results or even crashes. In this paper, we provide a comprehensive analysis of the sources of these instabilities and propose effective remedies. We further extend power transforms to the federated learning setting, addressing both numerical and distributional challenges that arise in this context. Experiments on real-world datasets demonstrate that our methods are both effective and robust, substantially improving stability compared to existing approaches.
PDF02October 7, 2025