Технический отчет по HunyuanVideo 1.5
HunyuanVideo 1.5 Technical Report
November 24, 2025
Авторы: Bing Wu, Chang Zou, Changlin Li, Duojun Huang, Fang Yang, Hao Tan, Jack Peng, Jianbing Wu, Jiangfeng Xiong, Jie Jiang, Linus, Patrol, Peizhen Zhang, Peng Chen, Penghao Zhao, Qi Tian, Songtao Liu, Weijie Kong, Weiyan Wang, Xiao He, Xin Li, Xinchi Deng, Xuefei Zhe, Yang Li, Yanxin Long, Yuanbo Peng, Yue Wu, Yuhong Liu, Zhenyu Wang, Zuozhuo Dai, Bo Peng, Coopers Li, Gu Gong, Guojian Xiao, Jiahe Tian, Jiaxin Lin, Jie Liu, Jihong Zhang, Jiesong Lian, Kaihang Pan, Lei Wang, Lin Niu, Mingtao Chen, Mingyang Chen, Mingzhe Zheng, Miles Yang, Qiangqiang Hu, Qi Yang, Qiuyong Xiao, Runzhou Wu, Ryan Xu, Rui Yuan, Shanshan Sang, Shisheng Huang, Siruis Gong, Shuo Huang, Weiting Guo, Xiang Yuan, Xiaojia Chen, Xiawei Hu, Wenzhi Sun, Xiele Wu, Xianshun Ren, Xiaoyan Yuan, Xiaoyue Mi, Yepeng Zhang, Yifu Sun, Yiting Lu, Yitong Li, You Huang, Yu Tang, Yixuan Li, Yuhang Deng, Yuan Zhou, Zhichao Hu, Zhiguang Liu, Zhihe Yang, Zilin Yang, Zhenzhi Lu, Zixiang Zhou, Zhao Zhong
cs.AI
Аннотация
Мы представляем HunyuanVideo 1.5 — легковесную, но мощную модель генерации видео с открытым исходным кодом, которая достигает передового качества визуализации и согласованности движения всего с 8.3 миллиардами параметров, обеспечивая эффективный вывод на потребительских графических процессорах. Этот результат основан на нескольких ключевых компонентах: тщательной обработке данных, усовершенствованной архитектуре DiT с избирательным и скользящим мозаичным вниманием (SSTA), улучшенном двуязычном понимании за счет глиф-ориентированного текстового кодирования, прогрессивном предварительном и пост-обучении, а также эффективной сети повышения разрешения видео. Благодаря этим решениям мы разработали унифицированную структуру, способную генерировать высококачественные видео по текстовому описанию и из изображений в различных длительностях и разрешениях.
Многочисленные эксперименты демонстрируют, что эта компактная и эффективная модель устанавливает новый рекорд среди моделей генерации видео с открытым исходным кодом. Опубликовав код и веса модели, мы предоставляем сообществу высокопроизводительную основу, которая снижает барьер для создания видео и исследований, делая передовые технологии генерации доступными для широкой аудитории. Все ресурсы с открытым кодом доступны по адресу https://github.com/Tencent-Hunyuan/HunyuanVideo-1.5.
English
We present HunyuanVideo 1.5, a lightweight yet powerful open-source video generation model that achieves state-of-the-art visual quality and motion coherence with only 8.3 billion parameters, enabling efficient inference on consumer-grade GPUs. This achievement is built upon several key components, including meticulous data curation, an advanced DiT architecture featuring selective and sliding tile attention (SSTA), enhanced bilingual understanding through glyph-aware text encoding, progressive pre-training and post-training, and an efficient video super-resolution network. Leveraging these designs, we developed a unified framework capable of high-quality text-to-video and image-to-video generation across multiple durations and resolutions.Extensive experiments demonstrate that this compact and proficient model establishes a new state-of-the-art among open-source video generation models. By releasing the code and model weights, we provide the community with a high-performance foundation that lowers the barrier to video creation and research, making advanced video generation accessible to a broader audience. All open-source assets are publicly available at https://github.com/Tencent-Hunyuan/HunyuanVideo-1.5.