파워 변환 재고찰: 수치적 안정성과 연합 학습
Power Transform Revisited: Numerically Stable, and Federated
October 6, 2025
저자: Xuefeng Xu, Graham Cormode
cs.AI
초록
거듭제곱 변환(Power transform)은 데이터를 더 가우시안 분포에 가깝게 만들기 위해 널리 사용되는 파라미터 기반 기법으로, 통계 분석과 머신러닝의 전처리 단계에서 광범위하게 활용됩니다. 그러나 우리는 거듭제곱 변환의 직접적인 구현이 심각한 수치적 불안정성을 겪으며, 이로 인해 잘못된 결과나 심지어 시스템 충돌을 초래할 수 있음을 발견했습니다. 본 논문에서는 이러한 불안정성의 원인을 포괄적으로 분석하고 효과적인 해결 방안을 제안합니다. 또한, 우리는 거듭제곱 변환을 연합 학습(Federated Learning) 환경으로 확장하여, 이러한 맥락에서 발생하는 수치적 및 분포적 문제를 해결합니다. 실제 데이터셋에 대한 실험을 통해 우리의 방법이 기존 접근법에 비해 안정성을 크게 개선하면서도 효과적이고 견고함을 입증합니다.
English
Power transforms are popular parametric techniques for making data more
Gaussian-like, and are widely used as preprocessing steps in statistical
analysis and machine learning. However, we find that direct implementations of
power transforms suffer from severe numerical instabilities, which can lead to
incorrect results or even crashes. In this paper, we provide a comprehensive
analysis of the sources of these instabilities and propose effective remedies.
We further extend power transforms to the federated learning setting,
addressing both numerical and distributional challenges that arise in this
context. Experiments on real-world datasets demonstrate that our methods are
both effective and robust, substantially improving stability compared to
existing approaches.