ChatPaper.aiChatPaper

Rapport Technique Kling-Omni

Kling-Omni Technical Report

December 18, 2025
papers.authors: Kling Team, Jialu Chen, Yuanzheng Ci, Xiangyu Du, Zipeng Feng, Kun Gai, Sainan Guo, Feng Han, Jingbin He, Kang He, Xiao Hu, Xiaohua Hu, Boyuan Jiang, Fangyuan Kong, Hang Li, Jie Li, Qingyu Li, Shen Li, Xiaohan Li, Yan Li, Jiajun Liang, Borui Liao, Yiqiao Liao, Weihong Lin, Quande Liu, Xiaokun Liu, Yilun Liu, Yuliang Liu, Shun Lu, Hangyu Mao, Yunyao Mao, Haodong Ouyang, Wenyu Qin, Wanqi Shi, Xiaoyu Shi, Lianghao Su, Haozhi Sun, Peiqin Sun, Pengfei Wan, Chao Wang, Chenyu Wang, Meng Wang, Qiulin Wang, Runqi Wang, Xintao Wang, Xuebo Wang, Zekun Wang, Min Wei, Tiancheng Wen, Guohao Wu, Xiaoshi Wu, Zhenhua Wu, Da Xie, Yingtong Xiong, Yulong Xu, Sile Yang, Zikang Yang, Weicai Ye, Ziyang Yuan, Shenglong Zhang, Shuaiyu Zhang, Yuanxing Zhang, Yufan Zhang, Wenzheng Zhao, Ruiliang Zhou, Yan Zhou, Guosheng Zhu, Yongjie Zhu
cs.AI

papers.abstract

Nous présentons Kling-Omni, un cadre génératif généraliste conçu pour synthétiser des vidéos de haute fidélité directement à partir de données multimodales de langage visuel. Adoptant une perspective de bout en bout, Kling-Omni comble la séparation fonctionnelle entre les diverses tâches de génération, d'édition et de raisonnement intelligent de vidéos, en les intégrant dans un système holistique. Contrairement aux approches par pipelines disjoints, Kling-Omni prend en charge un large éventail d'entrées utilisateur, incluant des instructions textuelles, des images de référence et des contextes vidéo, qu'il traite en une représentation multimodale unifiée pour produire une création de contenu vidéo de qualité cinématographique et hautement intelligente. Pour soutenir ces capacités, nous avons construit un système de données complet qui sert de fondement à la création vidéo multimodale. Le cadre est en outre renforcé par des stratégies de pré-entraînement à grande échelle efficaces et des optimisations d'infrastructure pour l'inférence. Des évaluations exhaustives révèlent que Kling-Omni démontre des capacités exceptionnelles en génération contextuelle, en édition basée sur le raisonnement et en suivi d'instructions multimodales. Au-delà d'un simple outil de création de contenu, nous pensons que Kling-Omni représente une avancée décisive vers des simulateurs de monde multimodaux capables de percevoir, de raisonner, de générer et d'interagir avec des mondes dynamiques et complexes.
English
We present Kling-Omni, a generalist generative framework designed to synthesize high-fidelity videos directly from multimodal visual language inputs. Adopting an end-to-end perspective, Kling-Omni bridges the functional separation among diverse video generation, editing, and intelligent reasoning tasks, integrating them into a holistic system. Unlike disjointed pipeline approaches, Kling-Omni supports a diverse range of user inputs, including text instructions, reference images, and video contexts, processing them into a unified multimodal representation to deliver cinematic-quality and highly-intelligent video content creation. To support these capabilities, we constructed a comprehensive data system that serves as the foundation for multimodal video creation. The framework is further empowered by efficient large-scale pre-training strategies and infrastructure optimizations for inference. Comprehensive evaluations reveal that Kling-Omni demonstrates exceptional capabilities in in-context generation, reasoning-based editing, and multimodal instruction following. Moving beyond a content creation tool, we believe Kling-Omni is a pivotal advancement toward multimodal world simulators capable of perceiving, reasoning, generating and interacting with the dynamic and complex worlds.
PDF1222December 20, 2025