ChatPaper.aiChatPaper

F1: Модель "Видение-Язык-Действие", объединяющая понимание и генерацию для выполнения действий

F1: A Vision-Language-Action Model Bridging Understanding and Generation to Actions

September 8, 2025
Авторы: Qi Lv, Weijie Kong, Hao Li, Jia Zeng, Zherui Qiu, Delin Qu, Haoming Song, Qizhi Chen, Xiang Deng, Jiangmiao Pang
cs.AI

Аннотация

Выполнение задач, обусловленных языком, в динамических визуальных средах остается ключевой проблемой в воплощенном искусственном интеллекте. Существующие модели Vision-Language-Action (VLA) преимущественно используют реактивные отображения состояний в действия, что часто приводит к близорукому поведению и низкой устойчивости в динамических сценах. В данной статье мы представляем F1 — предобученную VLA-структуру, которая интегрирует генерацию визуального предвидения в процесс принятия решений. F1 использует архитектуру Mixture-of-Transformer с выделенными модулями для восприятия, генерации предвидения и управления, тем самым объединяя понимание, генерацию и действия. В основе F1 лежит механизм предсказания следующего масштаба, который синтезирует визуальное предвидение, обусловленное целью, в качестве явных целей планирования. Прогнозируя правдоподобные будущие визуальные состояния, F1 переформулирует генерацию действий как задачу обратной динамики, направляемую предвидением, что позволяет выполнять действия, неявно достигающие визуальных целей. Для наделения F1 устойчивыми и обобщаемыми способностями мы предлагаем трехэтапный процесс обучения на обширном наборе данных, включающем более 330 тысяч траекторий по 136 разнообразным задачам. Эта схема обучения улучшает модульное рассуждение и оснащает модель переносимым визуальным предвидением, что критически важно для сложных и динамических сред. Масштабные оценки на реальных задачах и симуляционных тестах демонстрируют, что F1 стабильно превосходит существующие подходы, достигая значительных улучшений как в успешности выполнения задач, так и в способности к обобщению.
English
Executing language-conditioned tasks in dynamic visual environments remains a central challenge in embodied AI. Existing Vision-Language-Action (VLA) models predominantly adopt reactive state-to-action mappings, often leading to short-sighted behaviors and poor robustness in dynamic scenes. In this paper, we introduce F1, a pretrained VLA framework which integrates the visual foresight generation into decision-making pipeline. F1 adopts a Mixture-of-Transformer architecture with dedicated modules for perception, foresight generation, and control, thereby bridging understanding, generation, and actions. At its core, F1 employs a next-scale prediction mechanism to synthesize goal-conditioned visual foresight as explicit planning targets. By forecasting plausible future visual states, F1 reformulates action generation as a foresight-guided inverse dynamics problem, enabling actions that implicitly achieve visual goals. To endow F1 with robust and generalizable capabilities, we propose a three-stage training recipe on an extensive dataset comprising over 330k trajectories across 136 diverse tasks. This training scheme enhances modular reasoning and equips the model with transferable visual foresight, which is critical for complex and dynamic environments. Extensive evaluations on real-world tasks and simulation benchmarks demonstrate F1 consistently outperforms existing approaches, achieving substantial gains in both task success rate and generalization ability.
PDF262September 10, 2025