ChatPaper.aiChatPaper

ContextFlow: Edición de objetos en video sin entrenamiento mediante enriquecimiento adaptativo de contexto

ContextFlow: Training-Free Video Object Editing via Adaptive Context Enrichment

September 22, 2025
Autores: Yiyang Chen, Xuanhua He, Xiujun Ma, Yue Ma
cs.AI

Resumen

La edición de objetos en vídeo sin entrenamiento tiene como objetivo lograr una manipulación precisa a nivel de objetos, incluyendo la inserción, intercambio y eliminación de objetos. Sin embargo, enfrenta desafíos significativos para mantener la fidelidad y la consistencia temporal. Los métodos existentes, a menudo diseñados para arquitecturas U-Net, presentan dos limitaciones principales: la inversión inexacta debido a solucionadores de primer orden y los conflictos contextuales causados por el reemplazo crudo y "rígido" de características. Estos problemas son más desafiantes en los Transformadores de Difusión (DiTs), donde la inadecuación de las heurísticas previas de selección de capas dificulta la guía efectiva. Para abordar estas limitaciones, presentamos ContextFlow, un marco novedoso sin entrenamiento para la edición de objetos en vídeo basado en DiT. En detalle, primero empleamos un solucionador de Flujo Rectificado de alto orden para establecer una base sólida de edición. El núcleo de nuestro marco es el Enriquecimiento Contextual Adaptativo (para especificar qué editar), un mecanismo que aborda los conflictos contextuales. En lugar de reemplazar características, enriquece el contexto de auto-atención concatenando pares Clave-Valor de las rutas de reconstrucción y edición paralelas, permitiendo que el modelo fusione información de manera dinámica. Además, para determinar dónde aplicar este enriquecimiento (para especificar dónde editar), proponemos un análisis sistemático basado en datos para identificar las capas vitales específicas de la tarea. Basado en una nueva Métrica de Capacidad de Respuesta a la Guía, nuestro método identifica los bloques DiT más influyentes para diferentes tareas (por ejemplo, inserción, intercambio), permitiendo una guía dirigida y altamente efectiva. Experimentos extensos muestran que ContextFlow supera significativamente los métodos existentes sin entrenamiento e incluso supera varios enfoques de última generación basados en entrenamiento, ofreciendo resultados temporalmente coherentes y de alta fidelidad.
English
Training-free video object editing aims to achieve precise object-level manipulation, including object insertion, swapping, and deletion. However, it faces significant challenges in maintaining fidelity and temporal consistency. Existing methods, often designed for U-Net architectures, suffer from two primary limitations: inaccurate inversion due to first-order solvers, and contextual conflicts caused by crude "hard" feature replacement. These issues are more challenging in Diffusion Transformers (DiTs), where the unsuitability of prior layer-selection heuristics makes effective guidance challenging. To address these limitations, we introduce ContextFlow, a novel training-free framework for DiT-based video object editing. In detail, we first employ a high-order Rectified Flow solver to establish a robust editing foundation. The core of our framework is Adaptive Context Enrichment (for specifying what to edit), a mechanism that addresses contextual conflicts. Instead of replacing features, it enriches the self-attention context by concatenating Key-Value pairs from parallel reconstruction and editing paths, empowering the model to dynamically fuse information. Additionally, to determine where to apply this enrichment (for specifying where to edit), we propose a systematic, data-driven analysis to identify task-specific vital layers. Based on a novel Guidance Responsiveness Metric, our method pinpoints the most influential DiT blocks for different tasks (e.g., insertion, swapping), enabling targeted and highly effective guidance. Extensive experiments show that ContextFlow significantly outperforms existing training-free methods and even surpasses several state-of-the-art training-based approaches, delivering temporally coherent, high-fidelity results.
PDF72September 23, 2025