Perduti nello Spazio Latente: Uno Studio Empirico sui Modelli di Diffusione Latente per l'Emulazione della Fisica
Lost in Latent Space: An Empirical Study of Latent Diffusion Models for Physics Emulation
July 3, 2025
Autori: François Rozet, Ruben Ohana, Michael McCabe, Gilles Louppe, François Lanusse, Shirley Ho
cs.AI
Abstract
L'elevato costo computazionale dei modelli di diffusione durante l'inferenza ne ostacola l'utilizzo come emulatori fisici veloci. Nel contesto della generazione di immagini e video, questo svantaggio computazionale è stato affrontato generando nello spazio latente di un autoencoder anziché nello spazio dei pixel. In questo lavoro, indaghiamo se una strategia simile possa essere efficacemente applicata all'emulazione di sistemi dinamici e a quale costo. Scopriamo che l'accuratezza dell'emulazione nello spazio latente è sorprendentemente robusta a un'ampia gamma di tassi di compressione (fino a 1000x). Dimostriamo inoltre che gli emulatori basati su diffusione sono costantemente più accurati rispetto alle controparti non generative e compensano l'incertezza nelle loro previsioni con una maggiore diversità. Infine, trattiamo le scelte progettuali pratiche, che vanno dalle architetture agli ottimizzatori, che abbiamo ritenuto cruciali per l'addestramento degli emulatori nello spazio latente.
English
The steep computational cost of diffusion models at inference hinders their
use as fast physics emulators. In the context of image and video generation,
this computational drawback has been addressed by generating in the latent
space of an autoencoder instead of the pixel space. In this work, we
investigate whether a similar strategy can be effectively applied to the
emulation of dynamical systems and at what cost. We find that the accuracy of
latent-space emulation is surprisingly robust to a wide range of compression
rates (up to 1000x). We also show that diffusion-based emulators are
consistently more accurate than non-generative counterparts and compensate for
uncertainty in their predictions with greater diversity. Finally, we cover
practical design choices, spanning from architectures to optimizers, that we
found critical to train latent-space emulators.