ChatPaper.aiChatPaper

Difusión de Débil a Fuerte con Reflexión

Weak-to-Strong Diffusion with Reflection

February 1, 2025
Autores: Lichen Bai, Masashi Sugiyama, Zeke Xie
cs.AI

Resumen

El objetivo de los modelos generativos de difusión es alinear la distribución aprendida con la distribución de datos reales a través del emparejamiento de puntuaciones de gradiente. Sin embargo, limitaciones inherentes en la calidad de los datos de entrenamiento, estrategias de modelado y diseño arquitectónico conducen a una brecha inevitable entre las salidas generadas y los datos reales. Para reducir esta brecha, proponemos Difusión de Débil a Fuerte (W2SD), un marco novedoso que utiliza la diferencia estimada entre modelos débiles y fuertes existentes (es decir, diferencia de débil a fuerte) para aproximar la brecha entre un modelo ideal y un modelo fuerte. Al emplear una operación reflexiva que alterna entre el desruido y la inversión con la diferencia de débil a fuerte, comprendemos teóricamente que W2SD dirige variables latentes a lo largo de trayectorias de muestreo hacia regiones de la distribución de datos reales. W2SD es altamente flexible y ampliamente aplicable, permitiendo diversas mejoras a través de la selección estratégica de pares de modelos de débil a fuerte (por ejemplo, DreamShaper vs. SD1.5, buenos expertos vs. malos expertos en MoE). Experimentos extensos demuestran que W2SD mejora significativamente la preferencia humana, la calidad estética y la adherencia a las indicaciones, logrando un rendimiento de vanguardia en diversas modalidades (por ejemplo, imagen, video), arquitecturas (por ejemplo, basadas en UNet, basadas en DiT, MoE) y pruebas comparativas. Por ejemplo, Juggernaut-XL con W2SD puede mejorar la tasa de victorias de HPSv2 hasta un 90% sobre los resultados originales. Además, las mejoras de rendimiento logradas por W2SD superan notablemente su sobrecarga computacional adicional, mientras que las mejoras acumulativas de diferentes diferencias de débil a fuerte refuerzan aún más su utilidad práctica y despliegue.
English
The goal of diffusion generative models is to align the learned distribution with the real data distribution through gradient score matching. However, inherent limitations in training data quality, modeling strategies, and architectural design lead to inevitable gap between generated outputs and real data. To reduce this gap, we propose Weak-to-Strong Diffusion (W2SD), a novel framework that utilizes the estimated difference between existing weak and strong models (i.e., weak-to-strong difference) to approximate the gap between an ideal model and a strong model. By employing a reflective operation that alternates between denoising and inversion with weak-to-strong difference, we theoretically understand that W2SD steers latent variables along sampling trajectories toward regions of the real data distribution. W2SD is highly flexible and broadly applicable, enabling diverse improvements through the strategic selection of weak-to-strong model pairs (e.g., DreamShaper vs. SD1.5, good experts vs. bad experts in MoE). Extensive experiments demonstrate that W2SD significantly improves human preference, aesthetic quality, and prompt adherence, achieving SOTA performance across various modalities (e.g., image, video), architectures (e.g., UNet-based, DiT-based, MoE), and benchmarks. For example, Juggernaut-XL with W2SD can improve with the HPSv2 winning rate up to 90% over the original results. Moreover, the performance gains achieved by W2SD markedly outweigh its additional computational overhead, while the cumulative improvements from different weak-to-strong difference further solidify its practical utility and deployability.

Summary

AI-Generated Summary

PDF232February 7, 2025