ChatPaper.aiChatPaper

Difusión de Redes Neuronales

Neural Network Diffusion

February 20, 2024
Autores: Kai Wang, Zhaopan Xu, Yukun Zhou, Zelin Zang, Trevor Darrell, Zhuang Liu, Yang You
cs.AI

Resumen

Los modelos de difusión han logrado un éxito notable en la generación de imágenes y videos. En este trabajo, demostramos que los modelos de difusión también pueden generar parámetros de redes neuronales de alto rendimiento. Nuestro enfoque es simple, utilizando un autoencoder y un modelo de difusión latente estándar. El autoencoder extrae representaciones latentes de un subconjunto de los parámetros entrenados de la red. Luego, se entrena un modelo de difusión para sintetizar estas representaciones latentes de parámetros a partir de ruido aleatorio. Posteriormente, genera nuevas representaciones que se pasan a través del decodificador del autoencoder, cuyas salidas están listas para usarse como nuevos subconjuntos de parámetros de la red. En diversas arquitecturas y conjuntos de datos, nuestro proceso de difusión genera consistentemente modelos con un rendimiento comparable o mejorado en comparación con las redes entrenadas, con un costo adicional mínimo. Es notable que, empíricamente, encontramos que los modelos generados se comportan de manera diferente a las redes entrenadas. Nuestros resultados fomentan una mayor exploración sobre el uso versátil de los modelos de difusión.
English
Diffusion models have achieved remarkable success in image and video generation. In this work, we demonstrate that diffusion models can also generate high-performing neural network parameters. Our approach is simple, utilizing an autoencoder and a standard latent diffusion model. The autoencoder extracts latent representations of a subset of the trained network parameters. A diffusion model is then trained to synthesize these latent parameter representations from random noise. It then generates new representations that are passed through the autoencoder's decoder, whose outputs are ready to use as new subsets of network parameters. Across various architectures and datasets, our diffusion process consistently generates models of comparable or improved performance over trained networks, with minimal additional cost. Notably, we empirically find that the generated models perform differently with the trained networks. Our results encourage more exploration on the versatile use of diffusion models.

Summary

AI-Generated Summary

PDF9810December 15, 2024