AlphaFlow: Comprendere e Migliorare i Modelli MeanFlow
AlphaFlow: Understanding and Improving MeanFlow Models
October 23, 2025
Autori: Huijie Zhang, Aliaksandr Siarohin, Willi Menapace, Michael Vasilkovsky, Sergey Tulyakov, Qing Qu, Ivan Skorokhodov
cs.AI
Abstract
MeanFlow è emerso recentemente come un potente framework per la modellazione generativa a pochi passi addestrato da zero, ma il suo successo non è ancora completamente compreso. In questo lavoro, dimostriamo che l'obiettivo di MeanFlow si scompone naturalmente in due parti: trajectory flow matching e consistenza della traiettoria. Attraverso l'analisi del gradiente, scopriamo che questi termini sono fortemente correlati negativamente, causando un conflitto di ottimizzazione e una convergenza lenta. Sulla base di queste intuizioni, introduciamo alpha-Flow, un'ampia famiglia di obiettivi che unifica trajectory flow matching, Shortcut Model e MeanFlow in un'unica formulazione. Adottando una strategia di curriculum che passa gradualmente da trajectory flow matching a MeanFlow, alpha-Flow districa gli obiettivi in conflitto e raggiunge una convergenza migliore. Quando addestrato da zero su ImageNet-1K 256x256 condizionato per classe con backbone DiT standard, alpha-Flow supera costantemente MeanFlow su diverse scale e impostazioni. Il nostro modello più grande, alpha-Flow-XL/2+, raggiunge nuovi risultati state-of-the-art utilizzando backbone DiT standard, con punteggi FID di 2.58 (1-NFE) e 2.15 (2-NFE).
English
MeanFlow has recently emerged as a powerful framework for few-step generative
modeling trained from scratch, but its success is not yet fully understood. In
this work, we show that the MeanFlow objective naturally decomposes into two
parts: trajectory flow matching and trajectory consistency. Through gradient
analysis, we find that these terms are strongly negatively correlated, causing
optimization conflict and slow convergence. Motivated by these insights, we
introduce alpha-Flow, a broad family of objectives that unifies trajectory
flow matching, Shortcut Model, and MeanFlow under one formulation. By adopting
a curriculum strategy that smoothly anneals from trajectory flow matching to
MeanFlow, alpha-Flow disentangles the conflicting objectives, and achieves
better convergence. When trained from scratch on class-conditional ImageNet-1K
256x256 with vanilla DiT backbones, alpha-Flow consistently outperforms
MeanFlow across scales and settings. Our largest alpha-Flow-XL/2+ model
achieves new state-of-the-art results using vanilla DiT backbones, with FID
scores of 2.58 (1-NFE) and 2.15 (2-NFE).