ChatPaper.aiChatPaper

Индуктивное согласование моментов

Inductive Moment Matching

March 10, 2025
Авторы: Linqi Zhou, Stefano Ermon, Jiaming Song
cs.AI

Аннотация

Диффузионные модели и Flow Matching генерируют высококачественные сэмплы, но работают медленно на этапе вывода, а их дистилляция в модели с малым количеством шагов часто приводит к нестабильности и требует значительной настройки. Чтобы устранить эти компромиссы, мы предлагаем Inductive Moment Matching (IMM) — новый класс генеративных моделей для одно- или малошагового сэмплинга с одноэтапной процедурой обучения. В отличие от дистилляции, IMM не требует предварительного обучения, инициализации и оптимизации двух сетей; и в отличие от Consistency Models, IMM гарантирует сходимость на уровне распределения и остается стабильной при различных гиперпараметрах и стандартных архитектурах моделей. IMM превосходит диффузионные модели на ImageNet-256x256 с показателем FID 1.99, используя всего 8 шагов вывода, и достигает передового показателя FID 1.98 на CIFAR-10 для модели, обученной с нуля, всего за 2 шага.
English
Diffusion models and Flow Matching generate high-quality samples but are slow at inference, and distilling them into few-step models often leads to instability and extensive tuning. To resolve these trade-offs, we propose Inductive Moment Matching (IMM), a new class of generative models for one- or few-step sampling with a single-stage training procedure. Unlike distillation, IMM does not require pre-training initialization and optimization of two networks; and unlike Consistency Models, IMM guarantees distribution-level convergence and remains stable under various hyperparameters and standard model architectures. IMM surpasses diffusion models on ImageNet-256x256 with 1.99 FID using only 8 inference steps and achieves state-of-the-art 2-step FID of 1.98 on CIFAR-10 for a model trained from scratch.

Summary

AI-Generated Summary

PDF62March 12, 2025