パワートランスフォーム再考:数値的安定性とフェデレーテッド
Power Transform Revisited: Numerically Stable, and Federated
October 6, 2025
著者: Xuefeng Xu, Graham Cormode
cs.AI
要旨
べき乗変換は、データをよりガウス分布に近づけるための人気のあるパラメトリック手法であり、統計分析や機械学習における前処理ステップとして広く利用されている。しかし、べき乗変換の直接的な実装は深刻な数値的不安定性に悩まされ、誤った結果やクラッシュを引き起こすことがある。本論文では、これらの不安定性の原因を包括的に分析し、効果的な解決策を提案する。さらに、べき乗変換を連合学習の設定に拡張し、この文脈で生じる数値的および分布的な課題に対処する。実世界のデータセットを用いた実験により、提案手法が既存のアプローチと比較して安定性を大幅に向上させ、効果的かつ頑健であることを実証する。
English
Power transforms are popular parametric techniques for making data more
Gaussian-like, and are widely used as preprocessing steps in statistical
analysis and machine learning. However, we find that direct implementations of
power transforms suffer from severe numerical instabilities, which can lead to
incorrect results or even crashes. In this paper, we provide a comprehensive
analysis of the sources of these instabilities and propose effective remedies.
We further extend power transforms to the federated learning setting,
addressing both numerical and distributional challenges that arise in this
context. Experiments on real-world datasets demonstrate that our methods are
both effective and robust, substantially improving stability compared to
existing approaches.