Transformación de Potencia Revisitada: Estabilidad Numérica y Federada
Power Transform Revisited: Numerically Stable, and Federated
October 6, 2025
Autores: Xuefeng Xu, Graham Cormode
cs.AI
Resumen
Las transformaciones de potencia son técnicas paramétricas populares para hacer que los datos se asemejen más a una distribución gaussiana, y se utilizan ampliamente como pasos de preprocesamiento en análisis estadístico y aprendizaje automático. Sin embargo, encontramos que las implementaciones directas de las transformaciones de potencia sufren de inestabilidades numéricas severas, lo que puede llevar a resultados incorrectos o incluso a fallos del sistema. En este artículo, proporcionamos un análisis exhaustivo de las fuentes de estas inestabilidades y proponemos remedios efectivos. Además, extendemos las transformaciones de potencia al entorno de aprendizaje federado, abordando tanto los desafíos numéricos como los distribucionales que surgen en este contexto. Los experimentos en conjuntos de datos del mundo real demuestran que nuestros métodos son tanto efectivos como robustos, mejorando sustancialmente la estabilidad en comparación con los enfoques existentes.
English
Power transforms are popular parametric techniques for making data more
Gaussian-like, and are widely used as preprocessing steps in statistical
analysis and machine learning. However, we find that direct implementations of
power transforms suffer from severe numerical instabilities, which can lead to
incorrect results or even crashes. In this paper, we provide a comprehensive
analysis of the sources of these instabilities and propose effective remedies.
We further extend power transforms to the federated learning setting,
addressing both numerical and distributional challenges that arise in this
context. Experiments on real-world datasets demonstrate that our methods are
both effective and robust, substantially improving stability compared to
existing approaches.