ChatPaper.aiChatPaper

FlowAct-R1 : Vers une génération vidéo humanoïde interactive

FlowAct-R1: Towards Interactive Humanoid Video Generation

January 15, 2026
papers.authors: Lizhen Wang, Yongming Zhu, Zhipeng Ge, Youwei Zheng, Longhao Zhang, Tianshu Hu, Shiyang Qin, Mingshuang Luo, Jiaxu Zhang, Xin Chen, Yulong Wang, Zerong Zheng, Jianwen Jiang, Chao Liang, Weifeng Chen, Xing Wang, Yuan Zhang, Mingyuan Gao
cs.AI

papers.abstract

La génération interactive de vidéos humanoïdes vise à synthétiser des agents visuels réalistes capables d'interagir avec les humains via des séquences vidéo continues et réactives. Malgré les progrès récents en synthèse vidéo, les méthodes existantes se heurtent souvent au compromis entre la synthèse haute fidélité et les exigences d'interaction en temps réel. Dans cet article, nous proposons FlowAct-R1, un cadre spécifiquement conçu pour la génération interactive en temps réel de vidéos humanoïdes. Fondé sur une architecture MMDiT, FlowAct-R1 permet la synthèse en flux de vidéos de durée arbitraire tout en maintenant une réactivité à faible latence. Nous introduisons une stratégie de forçage de diffusion par segments, complétée par une nouvelle variante d'auto-forçage, pour atténuer l'accumulation d'erreurs et garantir une cohérence temporelle à long terme durant les interactions continues. En tirant parti de techniques de distillation efficaces et d'optimisations systémiques, notre cadre atteint une fréquence stable de 25 images par seconde en résolution 480p, avec un temps d'affichage de la première image d'environ 1,5 seconde seulement. La méthode proposée offre un contrôle complet et granulaire du corps entier, permettant à l'agent de transitionner naturellement entre divers états comportementaux dans des scénarios interactifs. Les résultats expérimentaux démontrent que FlowAct-R1 atteint une vivacité comportementale et un réalisme perceptuel exceptionnels, tout en maintenant une robuste généralisation à travers divers styles de personnages.
English
Interactive humanoid video generation aims to synthesize lifelike visual agents that can engage with humans through continuous and responsive video. Despite recent advances in video synthesis, existing methods often grapple with the trade-off between high-fidelity synthesis and real-time interaction requirements. In this paper, we propose FlowAct-R1, a framework specifically designed for real-time interactive humanoid video generation. Built upon a MMDiT architecture, FlowAct-R1 enables the streaming synthesis of video with arbitrary durations while maintaining low-latency responsiveness. We introduce a chunkwise diffusion forcing strategy, complemented by a novel self-forcing variant, to alleviate error accumulation and ensure long-term temporal consistency during continuous interaction. By leveraging efficient distillation and system-level optimizations, our framework achieves a stable 25fps at 480p resolution with a time-to-first-frame (TTFF) of only around 1.5 seconds. The proposed method provides holistic and fine-grained full-body control, enabling the agent to transition naturally between diverse behavioral states in interactive scenarios. Experimental results demonstrate that FlowAct-R1 achieves exceptional behavioral vividness and perceptual realism, while maintaining robust generalization across diverse character styles.
PDF141January 17, 2026