ChatPaper.aiChatPaper

F1: Un modelo visión-lenguaje-acción que conecta la comprensión y la generación con acciones

F1: A Vision-Language-Action Model Bridging Understanding and Generation to Actions

September 8, 2025
Autores: Qi Lv, Weijie Kong, Hao Li, Jia Zeng, Zherui Qiu, Delin Qu, Haoming Song, Qizhi Chen, Xiang Deng, Jiangmiao Pang
cs.AI

Resumen

La ejecución de tareas condicionadas por lenguaje en entornos visuales dinámicos sigue siendo un desafío central en la inteligencia artificial encarnada. Los modelos existentes de Visión-Lenguaje-Acción (VLA) adoptan predominantemente mapeos reactivos de estado a acción, lo que a menudo conduce a comportamientos miopes y una baja robustez en escenas dinámicas. En este artículo, presentamos F1, un marco VLA preentrenado que integra la generación de previsión visual en la pipeline de toma de decisiones. F1 adopta una arquitectura Mixture-of-Transformer con módulos dedicados para percepción, generación de previsión y control, conectando así la comprensión, la generación y las acciones. En su núcleo, F1 emplea un mecanismo de predicción a escala siguiente para sintetizar previsión visual condicionada por objetivos como metas de planificación explícitas. Al pronosticar estados visuales futuros plausibles, F1 reformula la generación de acciones como un problema de dinámica inversa guiada por previsión, permitiendo acciones que logran implícitamente objetivos visuales. Para dotar a F1 de capacidades robustas y generalizables, proponemos una receta de entrenamiento en tres etapas en un extenso conjunto de datos que comprende más de 330k trayectorias en 136 tareas diversas. Este esquema de entrenamiento mejora el razonamiento modular y equipa al modelo con previsión visual transferible, lo cual es crítico para entornos complejos y dinámicos. Evaluaciones exhaustivas en tareas del mundo real y benchmarks de simulación demuestran que F1 supera consistentemente los enfoques existentes, logrando mejoras sustanciales tanto en la tasa de éxito de las tareas como en la capacidad de generalización.
English
Executing language-conditioned tasks in dynamic visual environments remains a central challenge in embodied AI. Existing Vision-Language-Action (VLA) models predominantly adopt reactive state-to-action mappings, often leading to short-sighted behaviors and poor robustness in dynamic scenes. In this paper, we introduce F1, a pretrained VLA framework which integrates the visual foresight generation into decision-making pipeline. F1 adopts a Mixture-of-Transformer architecture with dedicated modules for perception, foresight generation, and control, thereby bridging understanding, generation, and actions. At its core, F1 employs a next-scale prediction mechanism to synthesize goal-conditioned visual foresight as explicit planning targets. By forecasting plausible future visual states, F1 reformulates action generation as a foresight-guided inverse dynamics problem, enabling actions that implicitly achieve visual goals. To endow F1 with robust and generalizable capabilities, we propose a three-stage training recipe on an extensive dataset comprising over 330k trajectories across 136 diverse tasks. This training scheme enhances modular reasoning and equips the model with transferable visual foresight, which is critical for complex and dynamic environments. Extensive evaluations on real-world tasks and simulation benchmarks demonstrate F1 consistently outperforms existing approaches, achieving substantial gains in both task success rate and generalization ability.
PDF262September 10, 2025