ChatPaper.aiChatPaper

FlowAct-R1: Hacia la Generación Interactiva de Vídeos Humanoides

FlowAct-R1: Towards Interactive Humanoid Video Generation

January 15, 2026
Autores: Lizhen Wang, Yongming Zhu, Zhipeng Ge, Youwei Zheng, Longhao Zhang, Tianshu Hu, Shiyang Qin, Mingshuang Luo, Jiaxu Zhang, Xin Chen, Yulong Wang, Zerong Zheng, Jianwen Jiang, Chao Liang, Weifeng Chen, Xing Wang, Yuan Zhang, Mingyuan Gao
cs.AI

Resumen

La generación interactiva de video de humanoides busca sintetizar agentes visuales realistas que puedan interactuar con humanos mediante video continuo y responsivo. A pesar de los recientes avances en síntesis de video, los métodos existentes a menudo lidian con la disyuntiva entre la síntesis de alta fidelidad y los requisitos de interacción en tiempo real. En este artículo, proponemos FlowAct-R1, un marco diseñado específicamente para la generación interactiva de video de humanoides en tiempo real. Basado en una arquitectura MMDiT, FlowAct-R1 permite la síntesis en flujo de video con duraciones arbitrarias manteniendo una respuesta de baja latencia. Introducimos una estrategia de forzado de difusión por fragmentos, complementada con una nueva variante de auto-forzado, para aliviar la acumulación de errores y garantizar la coherencia temporal a largo plazo durante la interacción continua. Al aprovechar la destilación eficiente y optimizaciones a nivel de sistema, nuestro marco alcanza una estabilidad de 25 fps en resolución 480p con un tiempo hasta el primer fotograma de solo aproximadamente 1.5 segundos. El método propuesto ofrece un control holístico y granular de todo el cuerpo, permitiendo que el agente transite naturalmente entre diversos estados conductuales en escenarios interactivos. Los resultados experimentales demuestran que FlowAct-R1 logra una vivacidad conductual excepcional y un realismo perceptual, manteniendo al mismo tiempo una generalización robusta en diversos estilos de personajes.
English
Interactive humanoid video generation aims to synthesize lifelike visual agents that can engage with humans through continuous and responsive video. Despite recent advances in video synthesis, existing methods often grapple with the trade-off between high-fidelity synthesis and real-time interaction requirements. In this paper, we propose FlowAct-R1, a framework specifically designed for real-time interactive humanoid video generation. Built upon a MMDiT architecture, FlowAct-R1 enables the streaming synthesis of video with arbitrary durations while maintaining low-latency responsiveness. We introduce a chunkwise diffusion forcing strategy, complemented by a novel self-forcing variant, to alleviate error accumulation and ensure long-term temporal consistency during continuous interaction. By leveraging efficient distillation and system-level optimizations, our framework achieves a stable 25fps at 480p resolution with a time-to-first-frame (TTFF) of only around 1.5 seconds. The proposed method provides holistic and fine-grained full-body control, enabling the agent to transition naturally between diverse behavioral states in interactive scenarios. Experimental results demonstrate that FlowAct-R1 achieves exceptional behavioral vividness and perceptual realism, while maintaining robust generalization across diverse character styles.
PDF141January 17, 2026