ChatPaper.aiChatPaper

ArcFlow: Sbloccare la generazione di immagini da testo in 2 fasi tramite distillazione di flusso non lineare ad alta precisione

ArcFlow: Unleashing 2-Step Text-to-Image Generation via High-Precision Non-Linear Flow Distillation

February 9, 2026
Autori: Zihan Yang, Shuyuan Tu, Licheng Zhang, Qi Dai, Yu-Gang Jiang, Zuxuan Wu
cs.AI

Abstract

I modelli di diffusione hanno ottenuto una qualità di generazione notevole, ma soffrono di costi computazionali di inferenza significativi a causa della loro dipendenza da molteplici passaggi di denoising sequenziali, motivando i recenti sforzi per distillare questo processo di inferenza in un regime a pochi passi. Tuttavia, i metodi di distillazione esistenti tipicamente approssimano la traiettoria del *teacher* utilizzando scorciatoie lineari, il che rende difficile adattarsi alle sue direzioni tangenziali in costante cambiamento man mano che le velocità evolvono attraverso i *timestep*, portando così a un degrado della qualità. Per affrontare questa limitazione, proponiamo ArcFlow, un framework di distillazione a pochi passi che impiega esplicitamente traiettorie di flusso non lineari per approssimare le traiettorie pre-addestrate del *teacher*. Nello specifico, ArcFlow parametrizza il campo di velocità sottostante la traiettoria di inferenza come una miscela di processi di *momentum* continui. Ciò consente ad ArcFlow di catturare l'evoluzione della velocità ed estrapolare velocità coerenti per formare una traiettoria non lineare continua all'interno di ogni passo di denoising. È importante sottolineare che questa parametrizzazione ammette un'integrazione analitica di questa traiettoria non lineare, che evita errori di discretizzazione numerica e risulta in un'approssimazione ad alta precisione della traiettoria del *teacher*. Per addestrare questa parametrizzazione in un generatore a pochi passi, implementiamo ArcFlow tramite distillazione della traiettoria su modelli *teacher* pre-addestrati utilizzando *adapter* leggeri. Questa strategia garantisce una convergenza rapida e stabile preservando al contempo la diversità e la qualità generativa. Basato su modelli su larga scala (Qwen-Image-20B e FLUX.1-dev), ArcFlow effettua il *fine-tuning* su meno del 5% dei parametri originali e raggiunge un'accelerazione di 40x con soli 2 NFE rispetto ai *teacher* multi-passo originali senza un significativo degrado della qualità. Esperimenti su benchmark mostrano l'efficacia di ArcFlow sia qualitativamente che quantitativamente.
English
Diffusion models have achieved remarkable generation quality, but they suffer from significant inference cost due to their reliance on multiple sequential denoising steps, motivating recent efforts to distill this inference process into a few-step regime. However, existing distillation methods typically approximate the teacher trajectory by using linear shortcuts, which makes it difficult to match its constantly changing tangent directions as velocities evolve across timesteps, thereby leading to quality degradation. To address this limitation, we propose ArcFlow, a few-step distillation framework that explicitly employs non-linear flow trajectories to approximate pre-trained teacher trajectories. Concretely, ArcFlow parameterizes the velocity field underlying the inference trajectory as a mixture of continuous momentum processes. This enables ArcFlow to capture velocity evolution and extrapolate coherent velocities to form a continuous non-linear trajectory within each denoising step. Importantly, this parameterization admits an analytical integration of this non-linear trajectory, which circumvents numerical discretization errors and results in high-precision approximation of the teacher trajectory. To train this parameterization into a few-step generator, we implement ArcFlow via trajectory distillation on pre-trained teacher models using lightweight adapters. This strategy ensures fast, stable convergence while preserving generative diversity and quality. Built on large-scale models (Qwen-Image-20B and FLUX.1-dev), ArcFlow only fine-tunes on less than 5% of original parameters and achieves a 40x speedup with 2 NFEs over the original multi-step teachers without significant quality degradation. Experiments on benchmarks show the effectiveness of ArcFlow both qualitatively and quantitatively.
PDF32March 10, 2026