ChatPaper.aiChatPaper

FlowOpt: Optimización Rápida Mediante Procesos de Flujo Completo para Edición Sin Entrenamiento

FlowOpt: Fast Optimization Through Whole Flow Processes for Training-Free Editing

October 24, 2025
Autores: Or Ronai, Vladimir Kulikov, Tomer Michaeli
cs.AI

Resumen

El notable éxito de los modelos de difusión y de correspondencia de flujos (flow-matching) ha impulsado una oleada de trabajos que los adaptan en tiempo de prueba para tareas de generación controlada. Los ejemplos abarcan desde la edición de imágenes hasta la restauración, compresión y personalización. Sin embargo, debido a la naturaleza iterativa del proceso de muestreo en estos modelos, es computacionalmente inviable utilizar optimización basada en gradientes para controlar directamente la imagen generada al final del proceso. Como resultado, los métodos existentes suelen recurrir a manipular cada paso de tiempo por separado. Aquí presentamos FlowOpt: un marco de optimización de orden cero (libre de gradientes) que trata todo el proceso de flujo como una caja negra, permitiendo la optimización a lo largo de toda la trayectoria de muestreo sin retropropagación a través del modelo. Nuestro método es altamente eficiente y permite a los usuarios monitorear los resultados intermedios de la optimización y realizar una parada anticipada si lo desean. Demostramos una condición suficiente para el tamaño de paso de FlowOpt, bajo la cual se garantiza la convergencia al óptimo global. Además, mostramos cómo estimar empíricamente este límite superior para elegir un tamaño de paso apropiado. Demostramos cómo FlowOpt puede utilizarse para la edición de imágenes, presentando dos opciones: (i) inversión (determinar el ruido inicial que genera una imagen dada), y (ii) dirigir directamente la imagen editada para que sea similar a la imagen fuente mientras se ajusta a un mensaje de texto objetivo. En ambos casos, FlowOpt logra resultados de vanguardia utilizando aproximadamente el mismo número de evaluaciones de la función neuronal (NFEs) que los métodos existentes. El código y los ejemplos están disponibles en la página web del proyecto.
English
The remarkable success of diffusion and flow-matching models has ignited a surge of works on adapting them at test time for controlled generation tasks. Examples range from image editing to restoration, compression and personalization. However, due to the iterative nature of the sampling process in those models, it is computationally impractical to use gradient-based optimization to directly control the image generated at the end of the process. As a result, existing methods typically resort to manipulating each timestep separately. Here we introduce FlowOpt - a zero-order (gradient-free) optimization framework that treats the entire flow process as a black box, enabling optimization through the whole sampling path without backpropagation through the model. Our method is both highly efficient and allows users to monitor the intermediate optimization results and perform early stopping if desired. We prove a sufficient condition on FlowOpt's step-size, under which convergence to the global optimum is guaranteed. We further show how to empirically estimate this upper bound so as to choose an appropriate step-size. We demonstrate how FlowOpt can be used for image editing, showcasing two options: (i) inversion (determining the initial noise that generates a given image), and (ii) directly steering the edited image to be similar to the source image while conforming to a target text prompt. In both cases, FlowOpt achieves state-of-the-art results while using roughly the same number of neural function evaluations (NFEs) as existing methods. Code and examples are available on the project's webpage.
PDF21December 31, 2025