ChatPaper.aiChatPaper

Dale rencontre Langevin : Un modèle de diffusion de bruit multiplicatif

Dale meets Langevin: A Multiplicative Denoising Diffusion Model

October 3, 2025
papers.authors: Nishanth Shetty, Madhava Prasath, Chandra Sekhar Seelamantula
cs.AI

papers.abstract

La descente de gradient s’est avérée être une technique puissante et efficace pour l’optimisation dans de nombreuses applications d’apprentissage automatique. Les avancées récentes en neurosciences computationnelles ont montré que l’apprentissage dans la formulation standard de l’optimisation par descente de gradient n’est pas cohérent avec l’apprentissage dans les systèmes biologiques. Cela a ouvert des perspectives intéressantes pour développer des techniques d’apprentissage inspirées de la biologie. Une telle approche s’inspire de la loi de Dale, qui stipule que les synapses inhibitrices et excitatrices n’échangent pas leurs rôles au cours de l’apprentissage. Le schéma d’optimisation par descente de gradient exponentielle qui en résulte conduit à des poids synaptiques distribués selon une loi log-normale. Fait intéressant, la densité qui satisfait l’équation de Fokker-Planck correspondant à l’équation différentielle stochastique (EDS) avec un mouvement brownien géométrique (MBG) est la densité log-normale. En exploitant cette connexion, nous partons de l’EDS gouvernant le mouvement brownien géométrique et montrons que la discrétisation de l’EDS en temps inverse donne une règle de mise à jour multiplicative, qui coïncide de manière surprenante avec l’équivalent d’échantillonnage de la mise à jour de la descente de gradient exponentielle fondée sur la loi de Dale. De plus, nous proposons un nouveau formalisme pour l’appariement de scores multiplicatifs avec débruitage, englobant la fonction de perte proposée par Hyvärinen pour les données non négatives. En effet, les données distribuées selon une loi log-normale sont positives, et le formalisme d’appariement de scores proposé s’avère être un choix naturel. Cela permet l’entraînement de modèles basés sur les scores pour les données d’images et aboutit à un nouveau schéma de mise à jour multiplicative pour la génération d’échantillons à partir d’une densité log-normale. Les résultats expérimentaux sur les ensembles de données MNIST, Fashion MNIST et Kuzushiji démontrent la capacité générative de ce nouveau schéma. À notre connaissance, il s’agit de la première instance d’un modèle génératif inspiré de la biologie utilisant des mises à jour multiplicatives, fondé sur le mouvement brownien géométrique.
English
Gradient descent has proven to be a powerful and effective technique for optimization in numerous machine learning applications. Recent advances in computational neuroscience have shown that learning in standard gradient descent optimization formulation is not consistent with learning in biological systems. This has opened up interesting avenues for building biologically inspired learning techniques. One such approach is inspired by Dale's law, which states that inhibitory and excitatory synapses do not swap roles during the course of learning. The resulting exponential gradient descent optimization scheme leads to log-normally distributed synaptic weights. Interestingly, the density that satisfies the Fokker-Planck equation corresponding to the stochastic differential equation (SDE) with geometric Brownian motion (GBM) is the log-normal density. Leveraging this connection, we start with the SDE governing geometric Brownian motion, and show that discretizing the corresponding reverse-time SDE yields a multiplicative update rule, which surprisingly, coincides with the sampling equivalent of the exponential gradient descent update founded on Dale's law. Furthermore, we propose a new formalism for multiplicative denoising score-matching, subsuming the loss function proposed by Hyvaerinen for non-negative data. Indeed, log-normally distributed data is positive and the proposed score-matching formalism turns out to be a natural fit. This allows for training of score-based models for image data and results in a novel multiplicative update scheme for sample generation starting from a log-normal density. Experimental results on MNIST, Fashion MNIST, and Kuzushiji datasets demonstrate generative capability of the new scheme. To the best of our knowledge, this is the first instance of a biologically inspired generative model employing multiplicative updates, founded on geometric Brownian motion.
PDF22October 6, 2025