ChatPaper.aiChatPaper

ArcFlow: Liberando a Geração de Imagens a Partir de Texto em 2 Etapas via Destilação de Fluxo Não-Linear de Alta Precisão

ArcFlow: Unleashing 2-Step Text-to-Image Generation via High-Precision Non-Linear Flow Distillation

February 9, 2026
Autores: Zihan Yang, Shuyuan Tu, Licheng Zhang, Qi Dai, Yu-Gang Jiang, Zuxuan Wu
cs.AI

Resumo

Os modelos de difusão alcançaram uma qualidade de geração notável, mas sofrem com um custo de inferência significativo devido à sua dependência de múltiplas etapas sequenciais de remoção de ruído, motivando esforços recentes para destilar esse processo de inferência em um regime de poucas etapas. No entanto, os métodos de destilação existentes normalmente aproximam a trajetória do professor usando atalhos lineares, o que dificulta a correspondência com suas direções tangentes em constante mudança à medida que as velocidades evoluem ao longo dos intervalos de tempo, levando assim à degradação da qualidade. Para superar essa limitação, propomos o ArcFlow, uma estrutura de destilação de poucas etapas que emprega explicitamente trajetórias de fluxo não-lineares para aproximar trajetórias de professores pré-treinados. Concretamente, o ArcFlow parametriza o campo de velocidade subjacente à trajetória de inferência como uma mistura de processos de momento contínuos. Isso permite que o ArcFlow capture a evolução da velocidade e extrapole velocidades coerentes para formar uma trajetória não-linear contínua dentro de cada etapa de remoção de ruído. Importante, essa parametrização admite uma integração analítica dessa trajetória não-linear, o que contorna erros de discretização numérica e resulta em uma aproximação de alta precisão da trajetória do professor. Para treinar essa parametrização em um gerador de poucas etapas, implementamos o ArcFlow via destilação de trajetória em modelos professores pré-treinados usando adaptadores leves. Essa estratégia garante convergência rápida e estável, preservando diversidade e qualidade gerativa. Construído em modelos de grande escala (Qwen-Image-20B e FLUX.1-dev), o ArcFlow sintoniza finamente menos de 5% dos parâmetros originais e alcança uma aceleração de 40x com 2 NFEs sobre os professores multi-etapa originais sem degradação significativa de qualidade. Experimentos em benchmarks mostram a eficácia do ArcFlow tanto qualitativa quanto quantitativamente.
English
Diffusion models have achieved remarkable generation quality, but they suffer from significant inference cost due to their reliance on multiple sequential denoising steps, motivating recent efforts to distill this inference process into a few-step regime. However, existing distillation methods typically approximate the teacher trajectory by using linear shortcuts, which makes it difficult to match its constantly changing tangent directions as velocities evolve across timesteps, thereby leading to quality degradation. To address this limitation, we propose ArcFlow, a few-step distillation framework that explicitly employs non-linear flow trajectories to approximate pre-trained teacher trajectories. Concretely, ArcFlow parameterizes the velocity field underlying the inference trajectory as a mixture of continuous momentum processes. This enables ArcFlow to capture velocity evolution and extrapolate coherent velocities to form a continuous non-linear trajectory within each denoising step. Importantly, this parameterization admits an analytical integration of this non-linear trajectory, which circumvents numerical discretization errors and results in high-precision approximation of the teacher trajectory. To train this parameterization into a few-step generator, we implement ArcFlow via trajectory distillation on pre-trained teacher models using lightweight adapters. This strategy ensures fast, stable convergence while preserving generative diversity and quality. Built on large-scale models (Qwen-Image-20B and FLUX.1-dev), ArcFlow only fine-tunes on less than 5% of original parameters and achieves a 40x speedup with 2 NFEs over the original multi-step teachers without significant quality degradation. Experiments on benchmarks show the effectiveness of ArcFlow both qualitatively and quantitatively.
PDF32March 10, 2026