ChatPaper.aiChatPaper

TrailBlazer: Control de trayectoria para la generación de videos basada en difusión

TrailBlazer: Trajectory Control for Diffusion-Based Video Generation

December 31, 2023
Autores: Wan-Duo Kurt Ma, J. P. Lewis, W. Bastiaan Kleijn
cs.AI

Resumen

En los enfoques recientes para la generación de texto a video (T2V), lograr controlabilidad en el video sintetizado suele ser un desafío. Normalmente, este problema se aborda proporcionando guías de bajo nivel por fotograma en forma de mapas de bordes, mapas de profundidad o un video existente que se desea modificar. Sin embargo, el proceso de obtener dichas guías puede ser laborioso. Este artículo se centra en mejorar la controlabilidad en la síntesis de video mediante el uso de simples cuadros delimitadores para guiar al sujeto de diversas maneras, todo sin necesidad de entrenamiento de redes neuronales, ajuste fino, optimización en tiempo de inferencia o el uso de videos preexistentes. Nuestro algoritmo, TrailBlazer, está construido sobre un modelo T2V preentrenado y es fácil de implementar. El sujeto es dirigido por un cuadro delimitador a través de la edición propuesta de mapas de atención espacial y temporal. Además, introducimos el concepto de fotogramas clave, permitiendo que la trayectoria del sujeto y su apariencia general sean guiadas tanto por un cuadro delimitador en movimiento como por indicaciones textuales correspondientes, sin necesidad de proporcionar una máscara detallada. El método es eficiente, con un cálculo adicional insignificante en relación con el modelo preentrenado subyacente. A pesar de la simplicidad de la guía mediante cuadros delimitadores, el movimiento resultante es sorprendentemente natural, con efectos emergentes que incluyen perspectiva y movimiento hacia la cámara virtual a medida que aumenta el tamaño del cuadro.
English
Within recent approaches to text-to-video (T2V) generation, achieving controllability in the synthesized video is often a challenge. Typically, this issue is addressed by providing low-level per-frame guidance in the form of edge maps, depth maps, or an existing video to be altered. However, the process of obtaining such guidance can be labor-intensive. This paper focuses on enhancing controllability in video synthesis by employing straightforward bounding boxes to guide the subject in various ways, all without the need for neural network training, finetuning, optimization at inference time, or the use of pre-existing videos. Our algorithm, TrailBlazer, is constructed upon a pre-trained (T2V) model, and easy to implement. The subject is directed by a bounding box through the proposed spatial and temporal attention map editing. Moreover, we introduce the concept of keyframing, allowing the subject trajectory and overall appearance to be guided by both a moving bounding box and corresponding prompts, without the need to provide a detailed mask. The method is efficient, with negligible additional computation relative to the underlying pre-trained model. Despite the simplicity of the bounding box guidance, the resulting motion is surprisingly natural, with emergent effects including perspective and movement toward the virtual camera as the box size increases.
PDF161December 15, 2024