ChatPaper.aiChatPaper

FlowAnchor: 反転処理を必要としない映像編集における編集信号の安定化

FlowAnchor: Stabilizing the Editing Signal for Inversion-Free Video Editing

April 24, 2026
著者: Ze Chen, Lan Chen, Yuanhang Li, Qi Mao
cs.AI

要旨

我々は、安定かつ効率的な反転不要のフローベース動画編集のための学習不要フレームワーク「FlowAnchor」を提案する。反転不要編集手法は近年、編集信号でサンプリング軌道を直接誘導することにより、画像領域で印象的な効率性と構造保存性を示している。しかし、このパラダイムを動画に拡張することは依然として困難であり、多オブジェクトシーンやフレーム数増加時にしばしば失敗する。我々は、根本原因が高次元動画潜在空間における編集信号の不安定性にあることを明らかにした。これは、不正確な空間的位置特定と長さ誘発性の強度減衰に起因する。この課題を克服するため、FlowAnchorは「どこを編集するか」と「どの程度強く編集するか」の両方を明示的に固定する。空間認識注意精密化により、テキストガイダンスと空間領域の一貫した整合を強制し、適応的強度変調により、十分な編集強度を適応的に保持する。これらの機構が共同して編集信号を安定化し、フローベースの進化を所望の目標分布へ導く。大規模実験により、FlowAnchorが困難な多オブジェクト・高速動作シナリオにおいて、より忠実で時間的一貫性があり、計算効率の高い動画編集を実現することを実証した。プロジェクトページはhttps://cuc-mipg.github.io/FlowAnchor.github.io/で公開されている。
English
We propose FlowAnchor, a training-free framework for stable and efficient inversion-free, flow-based video editing. Inversion-free editing methods have recently shown impressive efficiency and structure preservation in images by directly steering the sampling trajectory with an editing signal. However, extending this paradigm to videos remains challenging, often failing in multi-object scenes or with increased frame counts. We identify the root cause as the instability of the editing signal in high-dimensional video latent spaces, which arises from imprecise spatial localization and length-induced magnitude attenuation. To overcome this challenge, FlowAnchor explicitly anchors both where to edit and how strongly to edit. It introduces Spatial-aware Attention Refinement, which enforces consistent alignment between textual guidance and spatial regions, and Adaptive Magnitude Modulation, which adaptively preserves sufficient editing strength. Together, these mechanisms stabilize the editing signal and guide the flow-based evolution toward the desired target distribution. Extensive experiments demonstrate that FlowAnchor achieves more faithful, temporally coherent, and computationally efficient video editing across challenging multi-object and fast-motion scenarios. The project page is available at https://cuc-mipg.github.io/FlowAnchor.github.io/.
PDF101April 28, 2026