ChatPaper.aiChatPaper

Trasformazione di Potenza Rivisitata: Stabilità Numerica e Federata

Power Transform Revisited: Numerically Stable, and Federated

October 6, 2025
Autori: Xuefeng Xu, Graham Cormode
cs.AI

Abstract

Le trasformazioni di potenza sono tecniche parametriche popolari per rendere i dati più simili a una distribuzione Gaussiana e sono ampiamente utilizzate come passaggi di preelaborazione nell'analisi statistica e nel machine learning. Tuttavia, scopriamo che le implementazioni dirette delle trasformazioni di potenza soffrono di gravi instabilità numeriche, che possono portare a risultati errati o persino a crash. In questo articolo, forniamo un'analisi completa delle fonti di queste instabilità e proponiamo rimedi efficaci. Estendiamo inoltre le trasformazioni di potenza al contesto del federated learning, affrontando sia le sfide numeriche che quelle distributive che emergono in questo ambito. Esperimenti su dataset del mondo reale dimostrano che i nostri metodi sono sia efficaci che robusti, migliorando sostanzialmente la stabilità rispetto agli approcci esistenti.
English
Power transforms are popular parametric techniques for making data more Gaussian-like, and are widely used as preprocessing steps in statistical analysis and machine learning. However, we find that direct implementations of power transforms suffer from severe numerical instabilities, which can lead to incorrect results or even crashes. In this paper, we provide a comprehensive analysis of the sources of these instabilities and propose effective remedies. We further extend power transforms to the federated learning setting, addressing both numerical and distributional challenges that arise in this context. Experiments on real-world datasets demonstrate that our methods are both effective and robust, substantially improving stability compared to existing approaches.
PDF02October 7, 2025