ChatPaper.aiChatPaper

ConceptMaster: Personalización de Video Multi-Concepto en Modelos de Transformador de Difusión Sin Ajuste en Tiempo de Prueba

ConceptMaster: Multi-Concept Video Customization on Diffusion Transformer Models Without Test-Time Tuning

January 8, 2025
Autores: Yuzhou Huang, Ziyang Yuan, Quande Liu, Qiulin Wang, Xintao Wang, Ruimao Zhang, Pengfei Wan, Di Zhang, Kun Gai
cs.AI

Resumen

La generación de video a partir de texto ha experimentado avances notables a través de modelos de difusión. Sin embargo, la Personalización de Video Multi-Concepto (MCVC) sigue siendo un desafío significativo. Identificamos dos desafíos clave en esta tarea: 1) el problema de desacoplamiento de identidad, donde la adopción directa de métodos de personalización existentes inevitablemente mezcla atributos al manejar múltiples conceptos simultáneamente, y 2) la escasez de pares video-entidad de alta calidad, que es crucial para entrenar un modelo que represente y desacople bien varios conceptos. Para abordar estos desafíos, presentamos ConceptMaster, un marco innovador que aborda de manera efectiva los problemas críticos de desacoplamiento de identidad mientras mantiene la fidelidad conceptual en videos personalizados. Específicamente, introducimos una estrategia novedosa de aprendizaje de incrustaciones multi-concepto desacopladas que se inyectan en los modelos de difusión de manera independiente, lo que garantiza efectivamente la calidad de los videos personalizados con múltiples identidades, incluso para conceptos visuales altamente similares. Para superar aún más la escasez de datos MCVC de alta calidad, establecemos cuidadosamente un proceso de construcción de datos que permite la recopilación sistemática de datos precisos de video-entidad multi-concepto a través de diversos conceptos. Se diseña un benchmark integral para validar la efectividad de nuestro modelo desde tres dimensiones críticas: fidelidad conceptual, capacidad de desacoplamiento de identidad y calidad de generación de video en seis escenarios de composición de conceptos diferentes. Experimentos extensos demuestran que nuestro ConceptMaster supera significativamente en rendimiento a enfoques anteriores para esta tarea, allanando el camino para generar videos personalizados y semánticamente precisos a través de múltiples conceptos.
English
Text-to-video generation has made remarkable advancements through diffusion models. However, Multi-Concept Video Customization (MCVC) remains a significant challenge. We identify two key challenges in this task: 1) the identity decoupling problem, where directly adopting existing customization methods inevitably mix attributes when handling multiple concepts simultaneously, and 2) the scarcity of high-quality video-entity pairs, which is crucial for training such a model that represents and decouples various concepts well. To address these challenges, we introduce ConceptMaster, an innovative framework that effectively tackles the critical issues of identity decoupling while maintaining concept fidelity in customized videos. Specifically, we introduce a novel strategy of learning decoupled multi-concept embeddings that are injected into the diffusion models in a standalone manner, which effectively guarantees the quality of customized videos with multiple identities, even for highly similar visual concepts. To further overcome the scarcity of high-quality MCVC data, we carefully establish a data construction pipeline, which enables systematic collection of precise multi-concept video-entity data across diverse concepts. A comprehensive benchmark is designed to validate the effectiveness of our model from three critical dimensions: concept fidelity, identity decoupling ability, and video generation quality across six different concept composition scenarios. Extensive experiments demonstrate that our ConceptMaster significantly outperforms previous approaches for this task, paving the way for generating personalized and semantically accurate videos across multiple concepts.

Summary

AI-Generated Summary

PDF152January 13, 2025