ChatPaper.aiChatPaper

ArcFlow: Ontketening van 2-staps tekst-naar-beeldgeneratie via hoog-precisie niet-lineaire flowdistillatie

ArcFlow: Unleashing 2-Step Text-to-Image Generation via High-Precision Non-Linear Flow Distillation

February 9, 2026
Auteurs: Zihan Yang, Shuyuan Tu, Licheng Zhang, Qi Dai, Yu-Gang Jiang, Zuxuan Wu
cs.AI

Samenvatting

Diffusiemodellen hebben een opmerkelijke generatiekwaliteit bereikt, maar kampen met aanzienlijke inferentiekosten vanwege hun afhankelijkheid van meerdere sequentiële denoisingsstappen, wat recente inspanningen motiveert om dit inferentieproces te distilleren naar een regime met weinig stappen. Bestaande distillatiemethoden benaderen echter typisch het traject van de teacher door lineaire shortcuts te gebruiken, waardoor het moeilijk is om de constant veranderende raakrichtingen ervan te matchen naarmate snelheden evolueren over tijdstappen heen, wat leidt tot kwaliteitsverlies. Om deze beperking aan te pakken, stellen we ArcFlow voor, een distillatieraamwerk met weinig stappen dat expliciet niet-lineaire stroomtrajecten gebruikt om voorgetrainde teacher-trajecten te benaderen. Concreet parameteriseert ArcFlow het snelheidsveld dat ten grondslag ligt aan het inferentietraject als een mengsel van continue momentumprocessen. Hierdoor kan ArcFlow snelheidsevolutie vastleggen en coherente snelheden extrapoleren om een continu niet-lineair traject binnen elke denoisingsstap te vormen. Belangrijk is dat deze parameterisatie een analytische integratie van dit niet-lineaire traject toelaat, wat numerieke discretisatiefouten omzeilt en resulteert in een hoogwaardige benadering van het teacher-traject. Om deze parameterisatie af te trainen tot een generator met weinig stappen, implementeren we ArcFlow via trajectdistillatie op voorgetrainde teacher-modellen met behulp van lichtgewicht adapters. Deze strategie zorgt voor snelle, stabiele convergentie terwijl generatieve diversiteit en kwaliteit behouden blijven. Gebouwd op grootschalige modellen (Qwen-Image-20B en FLUX.1-dev) fine-tunt ArcFlow slechts minder dan 5% van de oorspronkelijke parameters en bereikt een 40x versnelling met 2 NFEs ten opzichte van de oorspronkelijke multi-step teachers zonder significant kwaliteitsverlies. Experimenten op benchmarks tonen de effectiviteit van ArcFlow zowel kwalitatief als kwantitatief aan.
English
Diffusion models have achieved remarkable generation quality, but they suffer from significant inference cost due to their reliance on multiple sequential denoising steps, motivating recent efforts to distill this inference process into a few-step regime. However, existing distillation methods typically approximate the teacher trajectory by using linear shortcuts, which makes it difficult to match its constantly changing tangent directions as velocities evolve across timesteps, thereby leading to quality degradation. To address this limitation, we propose ArcFlow, a few-step distillation framework that explicitly employs non-linear flow trajectories to approximate pre-trained teacher trajectories. Concretely, ArcFlow parameterizes the velocity field underlying the inference trajectory as a mixture of continuous momentum processes. This enables ArcFlow to capture velocity evolution and extrapolate coherent velocities to form a continuous non-linear trajectory within each denoising step. Importantly, this parameterization admits an analytical integration of this non-linear trajectory, which circumvents numerical discretization errors and results in high-precision approximation of the teacher trajectory. To train this parameterization into a few-step generator, we implement ArcFlow via trajectory distillation on pre-trained teacher models using lightweight adapters. This strategy ensures fast, stable convergence while preserving generative diversity and quality. Built on large-scale models (Qwen-Image-20B and FLUX.1-dev), ArcFlow only fine-tunes on less than 5% of original parameters and achieves a 40x speedup with 2 NFEs over the original multi-step teachers without significant quality degradation. Experiments on benchmarks show the effectiveness of ArcFlow both qualitatively and quantitatively.
PDF32March 10, 2026