ChatPaper.aiChatPaper

FlowAnchor: Stabilisatie van het bewerkingssignaal voor inversievrije videobewerking

FlowAnchor: Stabilizing the Editing Signal for Inversion-Free Video Editing

April 24, 2026
Auteurs: Ze Chen, Lan Chen, Yuanhang Li, Qi Mao
cs.AI

Samenvatting

Wij presenteren FlowAnchor, een trainingsvrij raamwerk voor stabiele en efficiënte inversievrije, op stroming gebaseerde videobewerking. Inversievrije bewerkingsmethoden hebben recentelijk indrukwekkende efficiëntie en structuurbehoud getoond bij afbeeldingen door het bemonsteringstraject direct te sturen met een bewerkingssignaal. Het uitbreiden van dit paradigma naar video's blijft echter een uitdaging, waarbij vaak falen optreedt in scènes met meerdere objecten of bij een hoger aantal frames. Wij identificeren de hoofdoorzaak als de instabiliteit van het bewerkingssignaal in hoogdimensionale videolatenteruimten, die ontstaat door onnauwkeurige ruimtelijke lokalisatie en lengte-gerelateerde magnitude-attenuatie. Om deze uitdaging te overwinnen, verankert FlowAnchor expliciet zowel waar moet worden bewerkt als hoe sterk moet worden bewerkt. Het introduceert Ruimtelijk-bewuste Aandachtverfijning, die een consistente uitlijning afdwingt tussen tekstuele begeleiding en ruimtelijke regio's, en Adaptieve Magnitudemodulatie, die adaptief voldoende bewerkingssterkte behoudt. Samen stabiliseren deze mechanismen het bewerkingssignaal en sturen ze de op stroming gebaseerde evolutie naar de gewenste doeldistributie. Uitgebreide experimenten tonen aan dat FlowAnchor meer getrouwe, temporeel coherente en computationeel efficiënte videobewerking bereikt in uitdagende scenario's met meerdere objecten en snelle beweging. De projectpagina is beschikbaar op https://cuc-mipg.github.io/FlowAnchor.github.io/.
English
We propose FlowAnchor, a training-free framework for stable and efficient inversion-free, flow-based video editing. Inversion-free editing methods have recently shown impressive efficiency and structure preservation in images by directly steering the sampling trajectory with an editing signal. However, extending this paradigm to videos remains challenging, often failing in multi-object scenes or with increased frame counts. We identify the root cause as the instability of the editing signal in high-dimensional video latent spaces, which arises from imprecise spatial localization and length-induced magnitude attenuation. To overcome this challenge, FlowAnchor explicitly anchors both where to edit and how strongly to edit. It introduces Spatial-aware Attention Refinement, which enforces consistent alignment between textual guidance and spatial regions, and Adaptive Magnitude Modulation, which adaptively preserves sufficient editing strength. Together, these mechanisms stabilize the editing signal and guide the flow-based evolution toward the desired target distribution. Extensive experiments demonstrate that FlowAnchor achieves more faithful, temporally coherent, and computationally efficient video editing across challenging multi-object and fast-motion scenarios. The project page is available at https://cuc-mipg.github.io/FlowAnchor.github.io/.
PDF101April 28, 2026