ChatPaper.aiChatPaper

FlowOpt : Optimisation rapide par le biais de processus de flux complets pour l'édition sans entraînement

FlowOpt: Fast Optimization Through Whole Flow Processes for Training-Free Editing

October 24, 2025
papers.authors: Or Ronai, Vladimir Kulikov, Tomer Michaeli
cs.AI

papers.abstract

Le succès remarquable des modèles de diffusion et d'appariement de flux a déclenché une vague de travaux visant à les adapter au moment du test pour des tâches de génération contrôlée. Les exemples vont de l'édition d'image à la restauration, la compression et la personnalisation. Cependant, en raison de la nature itérative du processus d'échantillonnage de ces modèles, il est informatiquement impraticable d'utiliser une optimisation basée sur le gradient pour contrôler directement l'image générée à la fin du processus. Par conséquent, les méthodes existantes ont généralement recours à la manipulation de chaque pas de temps séparément. Nous présentons ici FlowOpt - un cadre d'optimisation d'ordre zéro (sans gradient) qui traite l'ensemble du processus de flux comme une boîte noire, permettant une optimisation à travers le chemin d'échantillonnage entier sans rétropropagation à travers le modèle. Notre méthode est à la fois très efficace et permet aux utilisateurs de surveiller les résultats intermédiaires de l'optimisation et d'effectuer un arrêt anticipé si souhaité. Nous prouvons une condition suffisante sur la taille du pas de FlowOpt, sous laquelle la convergence vers l'optimum global est garantie. Nous montrons en outre comment estimer empiriquement cette borne supérieure afin de choisir une taille de pas appropriée. Nous démontrons comment FlowOpt peut être utilisé pour l'édition d'image, en présentant deux options : (i) l'inversion (déterminer le bruit initial qui génère une image donnée), et (ii) l'orientation directe de l'image modifiée pour qu'elle soit similaire à l'image source tout en respectant une invite textuelle cible. Dans les deux cas, FlowOpt obtient des résultats à l'état de l'art tout en utilisant à peu près le même nombre d'évaluations de fonctions neuronales (NFE) que les méthodes existantes. Le code et des exemples sont disponibles sur la page web du projet.
English
The remarkable success of diffusion and flow-matching models has ignited a surge of works on adapting them at test time for controlled generation tasks. Examples range from image editing to restoration, compression and personalization. However, due to the iterative nature of the sampling process in those models, it is computationally impractical to use gradient-based optimization to directly control the image generated at the end of the process. As a result, existing methods typically resort to manipulating each timestep separately. Here we introduce FlowOpt - a zero-order (gradient-free) optimization framework that treats the entire flow process as a black box, enabling optimization through the whole sampling path without backpropagation through the model. Our method is both highly efficient and allows users to monitor the intermediate optimization results and perform early stopping if desired. We prove a sufficient condition on FlowOpt's step-size, under which convergence to the global optimum is guaranteed. We further show how to empirically estimate this upper bound so as to choose an appropriate step-size. We demonstrate how FlowOpt can be used for image editing, showcasing two options: (i) inversion (determining the initial noise that generates a given image), and (ii) directly steering the edited image to be similar to the source image while conforming to a target text prompt. In both cases, FlowOpt achieves state-of-the-art results while using roughly the same number of neural function evaluations (NFEs) as existing methods. Code and examples are available on the project's webpage.
PDF21December 31, 2025