ChatPaper.aiChatPaper

ArcFlow: Freisetzung der 2-Schritt-Text-zu-Bild-Generierung durch hochpräzise nicht-lineare Flow-Destillation

ArcFlow: Unleashing 2-Step Text-to-Image Generation via High-Precision Non-Linear Flow Distillation

February 9, 2026
papers.authors: Zihan Yang, Shuyuan Tu, Licheng Zhang, Qi Dai, Yu-Gang Jiang, Zuxuan Wu
cs.AI

papers.abstract

Diffusionsmodelle haben eine bemerkenswerte Generierungsqualität erreicht, leiden jedoch unter erheblichen Inferenzkosten aufgrund ihrer Abhängigkeit von mehreren sequenziellen Denoising-Schritten, was aktuelle Bemühungen motiviert, diesen Inferenzprozess auf ein Few-Step-Regime zu destillieren. Bestehende Destillationsmethoden approximieren jedoch typischerweise die Trajektorie des Teacher-Modells durch lineare Abkürzungen, was es schwierig macht, deren sich ständig ändernde Tangentenrichtungen zu treffen, da sich die Geschwindigkeiten über die Zeitschritte hinweg entwickeln, was zu Qualitätseinbußen führt. Um diese Einschränkung zu adressieren, schlagen wir ArcFlow vor, ein Few-Step-Destillationsframework, das explizit nicht-lineare Flusstrajektorien zur Approximation vorab trainierter Teacher-Trajektorien einsetzt. Konkret parametrisiert ArcFlow das zugrundeliegende Geschwindigkeitsfeld der Inferenztrajektorie als eine Mischung kontinuierlicher Momentum-Prozesse. Dies ermöglicht es ArcFlow, die Geschwindigkeitsentwicklung zu erfassen und kohärente Geschwindigkeiten zu extrapolieren, um innerhalb jedes Denoising-Schritts eine kontinuierliche nicht-lineare Trajektorie zu bilden. Wichtig ist, dass diese Parametrisierung eine analytische Integration dieser nicht-linearen Trajektorie zulässt, was numerische Diskretisierungsfehler umgeht und zu einer hochpräzisen Approximation der Teacher-Trajektorie führt. Um diese Parametrisierung zu einem Few-Step-Generator zu trainieren, implementieren wir ArcFlow mittels Trajektoriendestillation auf vorab trainierten Teacher-Modellen unter Verwendung leichter Adapter. Diese Strategie gewährleistet eine schnelle, stabile Konvergenz bei gleichzeitiger Bewahrung der generativen Vielfalt und Qualität. Aufbauend auf großskaligen Modellen (Qwen-Image-20B und FLUX.1-dev) feintunt ArcFlow nur weniger als 5 % der ursprünglichen Parameter und erreicht eine 40-fache Beschleunigung mit 2 NFEs gegenüber den ursprünglichen Multi-Step-Teachern ohne signifikanten Qualitätsverlust. Experimente auf Benchmarks zeigen die Wirksamkeit von ArcFlow sowohl qualitativ als auch quantitativ.
English
Diffusion models have achieved remarkable generation quality, but they suffer from significant inference cost due to their reliance on multiple sequential denoising steps, motivating recent efforts to distill this inference process into a few-step regime. However, existing distillation methods typically approximate the teacher trajectory by using linear shortcuts, which makes it difficult to match its constantly changing tangent directions as velocities evolve across timesteps, thereby leading to quality degradation. To address this limitation, we propose ArcFlow, a few-step distillation framework that explicitly employs non-linear flow trajectories to approximate pre-trained teacher trajectories. Concretely, ArcFlow parameterizes the velocity field underlying the inference trajectory as a mixture of continuous momentum processes. This enables ArcFlow to capture velocity evolution and extrapolate coherent velocities to form a continuous non-linear trajectory within each denoising step. Importantly, this parameterization admits an analytical integration of this non-linear trajectory, which circumvents numerical discretization errors and results in high-precision approximation of the teacher trajectory. To train this parameterization into a few-step generator, we implement ArcFlow via trajectory distillation on pre-trained teacher models using lightweight adapters. This strategy ensures fast, stable convergence while preserving generative diversity and quality. Built on large-scale models (Qwen-Image-20B and FLUX.1-dev), ArcFlow only fine-tunes on less than 5% of original parameters and achieves a 40x speedup with 2 NFEs over the original multi-step teachers without significant quality degradation. Experiments on benchmarks show the effectiveness of ArcFlow both qualitatively and quantitatively.
PDF31February 13, 2026