ChatPaper.aiChatPaper

Progrès des modèles de monde open source

Advancing Open-source World Models

January 28, 2026
papers.authors: Robbyant Team, Zelin Gao, Qiuyu Wang, Yanhong Zeng, Jiapeng Zhu, Ka Leong Cheng, Yixuan Li, Hanlin Wang, Yinghao Xu, Shuailei Ma, Yihang Chen, Jie Liu, Yansong Cheng, Yao Yao, Jiayi Zhu, Yihao Meng, Kecheng Zheng, Qingyan Bai, Jingye Chen, Zehong Shen, Yue Yu, Xing Zhu, Yujun Shen, Hao Ouyang
cs.AI

papers.abstract

Nous présentons LingBot-World, un simulateur mondial open-source issu de la génération vidéo. Positionné comme un modèle mondial de premier ordre, LingBot-World offre les caractéristiques suivantes. (1) Il maintient une fidélité élevée et une dynamique robuste dans un large éventail d'environnements, incluant le réalisme, les contextes scientifiques, les styles cartoon, et au-delà. (2) Il permet un horizon de niveau minute tout en préservant la cohérence contextuelle dans le temps, également appelée « mémoire à long terme ». (3) Il prend en charge l'interactivité en temps réel, atteignant une latence inférieure à 1 seconde pour une production de 16 images par seconde. Nous mettons publiquement à disposition le code et le modèle dans le but de réduire l'écart entre les technologies open-source et propriétaires. Nous sommes convaincus que notre publication dotera la communauté d'applications pratiques dans des domaines tels que la création de contenu, le jeu vidéo et l'apprentissage robotique.
English
We present LingBot-World, an open-sourced world simulator stemming from video generation. Positioned as a top-tier world model, LingBot-World offers the following features. (1) It maintains high fidelity and robust dynamics in a broad spectrum of environments, including realism, scientific contexts, cartoon styles, and beyond. (2) It enables a minute-level horizon while preserving contextual consistency over time, which is also known as "long-term memory". (3) It supports real-time interactivity, achieving a latency of under 1 second when producing 16 frames per second. We provide public access to the code and model in an effort to narrow the divide between open-source and closed-source technologies. We believe our release will empower the community with practical applications across areas like content creation, gaming, and robot learning.
PDF1192February 8, 2026