FlowAnchor: 반전 없이 비디오 편집을 위한 편집 신호 안정화
FlowAnchor: Stabilizing the Editing Signal for Inversion-Free Video Editing
April 24, 2026
저자: Ze Chen, Lan Chen, Yuanhang Li, Qi Mao
cs.AI
초록
본 논문에서는 안정적이고 효율적인 역전산 불필요(inversion-free) 흐름 기반 비디오 편집을 위한 훈련 불필요 프레임워크인 FlowAnchor를 제안합니다. 역전산 불필요 편집 방법들은 편집 신호로 샘플링 궤적을 직접 조종함으로써 이미지 영역에서 최근 인상적인 효율성과 구조 보존 능력을 보여주었습니다. 그러나 이러한 패러다임을 비디오로 확장하는 것은 여전히 어려운 과제로 남아 있으며, 다중 객체 장면이나 프레임 수 증가 시 종종 실패합니다. 우리는 그 근본 원인이 비디오 고차원 잠재 공간에서의 편집 신호 불안정성에 있으며, 이는 부정확한 공간적 지역화와 길이에 따른 크기 감쇄에서 비롯된다고 판단했습니다. 이러한 과제를 극복하기 위해 FlowAnchor는 어디를 편집할지와 얼마나 강하게 편집할지를 명시적으로 고정합니다. 여기에는 텍스트 guidance와 공간 영역 간의 일관된 정렬을 강제하는 공간 인식 어텐션 정제(Spatial-aware Attention Refinement)와 충분한 편집 강도를 적응적으로 보존하는 적응형 크기 변조(Adaptive Magnitude Modulation)가 도입되었습니다. 이러한 메커니즘이 함께 작동하여 편집 신호를 안정화하고 흐름 기반 진화를 원하는 목표 분포로 유도합니다. 광범위한 실험을 통해 FlowAnchor가 까다로운 다중 객체 및 고속 동작 시나리오에서도 더 정확하고 시간적 일관성이 있으며 계산적으로 효율적인 비디오 편집을 달성함을 입증했습니다. 프로젝트 페이지는 https://cuc-mipg.github.io/FlowAnchor.github.io/에서 확인할 수 있습니다.
English
We propose FlowAnchor, a training-free framework for stable and efficient inversion-free, flow-based video editing. Inversion-free editing methods have recently shown impressive efficiency and structure preservation in images by directly steering the sampling trajectory with an editing signal. However, extending this paradigm to videos remains challenging, often failing in multi-object scenes or with increased frame counts. We identify the root cause as the instability of the editing signal in high-dimensional video latent spaces, which arises from imprecise spatial localization and length-induced magnitude attenuation. To overcome this challenge, FlowAnchor explicitly anchors both where to edit and how strongly to edit. It introduces Spatial-aware Attention Refinement, which enforces consistent alignment between textual guidance and spatial regions, and Adaptive Magnitude Modulation, which adaptively preserves sufficient editing strength. Together, these mechanisms stabilize the editing signal and guide the flow-based evolution toward the desired target distribution. Extensive experiments demonstrate that FlowAnchor achieves more faithful, temporally coherent, and computationally efficient video editing across challenging multi-object and fast-motion scenarios. The project page is available at https://cuc-mipg.github.io/FlowAnchor.github.io/.