ChatPaper.aiChatPaper

Video-Infinity: Generación Distribuida de Videos Largos

Video-Infinity: Distributed Long Video Generation

June 24, 2024
Autores: Zhenxiong Tan, Xingyi Yang, Songhua Liu, Xinchao Wang
cs.AI

Resumen

Los modelos de difusión han logrado recientemente resultados notables en la generación de videos. A pesar de los rendimientos alentadores, los videos generados suelen estar limitados a un número reducido de fotogramas, lo que resulta en clips que duran apenas unos segundos. Los principales desafíos para producir videos más largos incluyen los requisitos sustanciales de memoria y el tiempo de procesamiento extendido necesario en una sola GPU. Una solución directa sería dividir la carga de trabajo entre múltiples GPUs, lo que, sin embargo, conlleva dos problemas: (1) garantizar que todas las GPUs se comuniquen de manera efectiva para compartir información de tiempo y contexto, y (2) modificar los modelos de difusión de video existentes, que generalmente se entrenan con secuencias cortas, para crear videos más largos sin necesidad de entrenamiento adicional. Para abordar estos desafíos, en este artículo presentamos Video-Infinity, una canalización de inferencia distribuida que permite el procesamiento paralelo en múltiples GPUs para la generación de videos de larga duración. Específicamente, proponemos dos mecanismos coherentes: Paralelismo de clips y Atención de doble alcance. El paralelismo de clips optimiza la recopilación y el intercambio de información de contexto entre GPUs, lo que minimiza la sobrecarga de comunicación, mientras que la atención de doble alcance modula la autoatención temporal para equilibrar de manera eficiente los contextos locales y globales entre los dispositivos. Juntos, estos dos mecanismos trabajan en conjunto para distribuir la carga de trabajo y permitir la generación rápida de videos largos. En una configuración de 8 x Nvidia 6000 Ada GPU (48G), nuestro método genera videos de hasta 2,300 fotogramas en aproximadamente 5 minutos, lo que permite la generación de videos largos a una velocidad 100 veces mayor que los métodos anteriores.
English
Diffusion models have recently achieved remarkable results for video generation. Despite the encouraging performances, the generated videos are typically constrained to a small number of frames, resulting in clips lasting merely a few seconds. The primary challenges in producing longer videos include the substantial memory requirements and the extended processing time required on a single GPU. A straightforward solution would be to split the workload across multiple GPUs, which, however, leads to two issues: (1) ensuring all GPUs communicate effectively to share timing and context information, and (2) modifying existing video diffusion models, which are usually trained on short sequences, to create longer videos without additional training. To tackle these, in this paper we introduce Video-Infinity, a distributed inference pipeline that enables parallel processing across multiple GPUs for long-form video generation. Specifically, we propose two coherent mechanisms: Clip parallelism and Dual-scope attention. Clip parallelism optimizes the gathering and sharing of context information across GPUs which minimizes communication overhead, while Dual-scope attention modulates the temporal self-attention to balance local and global contexts efficiently across the devices. Together, the two mechanisms join forces to distribute the workload and enable the fast generation of long videos. Under an 8 x Nvidia 6000 Ada GPU (48G) setup, our method generates videos up to 2,300 frames in approximately 5 minutes, enabling long video generation at a speed 100 times faster than the prior methods.

Summary

AI-Generated Summary

PDF302November 29, 2024