Transformação de Potência Revisitada: Estabilidade Numérica e Federada
Power Transform Revisited: Numerically Stable, and Federated
October 6, 2025
Autores: Xuefeng Xu, Graham Cormode
cs.AI
Resumo
Transformações de potência são técnicas paramétricas populares para tornar os dados mais semelhantes a uma distribuição Gaussiana, sendo amplamente utilizadas como etapas de pré-processamento em análises estatísticas e aprendizado de máquina. No entanto, observamos que implementações diretas de transformações de potência sofrem com instabilidades numéricas severas, o que pode levar a resultados incorretos ou até mesmo a falhas. Neste artigo, fornecemos uma análise abrangente das fontes dessas instabilidades e propomos soluções eficazes. Além disso, estendemos as transformações de potência para o cenário de aprendizado federado, abordando tanto os desafios numéricos quanto os distribucionais que surgem nesse contexto. Experimentos em conjuntos de dados do mundo real demonstram que nossos métodos são eficazes e robustos, melhorando substancialmente a estabilidade em comparação com abordagens existentes.
English
Power transforms are popular parametric techniques for making data more
Gaussian-like, and are widely used as preprocessing steps in statistical
analysis and machine learning. However, we find that direct implementations of
power transforms suffer from severe numerical instabilities, which can lead to
incorrect results or even crashes. In this paper, we provide a comprehensive
analysis of the sources of these instabilities and propose effective remedies.
We further extend power transforms to the federated learning setting,
addressing both numerical and distributional challenges that arise in this
context. Experiments on real-world datasets demonstrate that our methods are
both effective and robust, substantially improving stability compared to
existing approaches.