ChatPaper.aiChatPaper

StableAvatar: Генерация видеоаватаров с неограниченной длительностью на основе аудио

StableAvatar: Infinite-Length Audio-Driven Avatar Video Generation

August 11, 2025
Авторы: Shuyuan Tu, Yueming Pan, Yinming Huang, Xintong Han, Zhen Xing, Qi Dai, Chong Luo, Zuxuan Wu, Yu-Gang Jiang
cs.AI

Аннотация

Современные диффузионные модели для генерации видео аватаров на основе аудио сталкиваются с трудностями при синтезе длинных видео с естественной синхронизацией звука и сохранением идентичности. В данной статье представлен StableAvatar — первый сквозной видео-диффузионный трансформер, который синтезирует высококачественные видео бесконечной длины без постобработки. Опираясь на эталонное изображение и аудио, StableAvatar интегрирует специализированные модули обучения и вывода, что позволяет генерировать видео неограниченной длины. Мы отмечаем, что основная причина, препятствующая существующим моделям в создании длинных видео, заключается в их подходе к моделированию аудио. Обычно они полагаются на сторонние готовые экстракторы для получения аудио-эмбеддингов, которые затем напрямую внедряются в диффузионную модель через кросс-внимание. Поскольку текущие архитектуры диффузионных моделей не имеют априорных знаний, связанных с аудио, такой подход вызывает накопление ошибок в латентном распределении между видеофрагментами, что приводит к постепенному отклонению латентного распределения последующих сегментов от оптимального. Для решения этой проблемы StableAvatar представляет новый Time-step-aware Audio Adapter, который предотвращает накопление ошибок за счет модуляции, учитывающей временные шаги. Во время вывода мы предлагаем новый механизм Audio Native Guidance Mechanism, который дополнительно улучшает синхронизацию аудио, используя собственное развивающееся совместное предсказание аудио-латентного пространства диффузионной модели в качестве динамического сигнала управления. Для повышения плавности видео бесконечной длины мы вводим стратегию Dynamic Weighted Sliding-window Strategy, которая объединяет латентные представления во времени. Эксперименты на эталонных наборах данных демонстрируют эффективность StableAvatar как качественно, так и количественно.
English
Current diffusion models for audio-driven avatar video generation struggle to synthesize long videos with natural audio synchronization and identity consistency. This paper presents StableAvatar, the first end-to-end video diffusion transformer that synthesizes infinite-length high-quality videos without post-processing. Conditioned on a reference image and audio, StableAvatar integrates tailored training and inference modules to enable infinite-length video generation. We observe that the main reason preventing existing models from generating long videos lies in their audio modeling. They typically rely on third-party off-the-shelf extractors to obtain audio embeddings, which are then directly injected into the diffusion model via cross-attention. Since current diffusion backbones lack any audio-related priors, this approach causes severe latent distribution error accumulation across video clips, leading the latent distribution of subsequent segments to drift away from the optimal distribution gradually. To address this, StableAvatar introduces a novel Time-step-aware Audio Adapter that prevents error accumulation via time-step-aware modulation. During inference, we propose a novel Audio Native Guidance Mechanism to further enhance the audio synchronization by leveraging the diffusion's own evolving joint audio-latent prediction as a dynamic guidance signal. To enhance the smoothness of the infinite-length videos, we introduce a Dynamic Weighted Sliding-window Strategy that fuses latent over time. Experiments on benchmarks show the effectiveness of StableAvatar both qualitatively and quantitatively.
PDF152August 14, 2025