WorldSimBench: К Моделям Генерации Видео как Мировым Симуляторам
WorldSimBench: Towards Video Generation Models as World Simulators
October 23, 2024
Авторы: Yiran Qin, Zhelun Shi, Jiwen Yu, Xijun Wang, Enshen Zhou, Lijun Li, Zhenfei Yin, Xihui Liu, Lu Sheng, Jing Shao, Lei Bai, Wanli Ouyang, Ruimao Zhang
cs.AI
Аннотация
Недавние достижения в области прогностических моделей продемонстрировали исключительные возможности в предсказании будущего состояния объектов и сцен. Однако отсутствие категоризации на основе врожденных характеристик продолжает затруднять прогресс развития прогностических моделей. Кроме того, существующие бенчмарки не способны эффективно оценить модели прогнозирования с более высокой способностью и высокой степенью воплощения с позиции воплощенной перспективы. В данной работе мы классифицируем функциональности прогностических моделей в иерархию и делаем первый шаг в оценке Мировых Симуляторов, предложив двойную систему оценки под названием WorldSimBench. WorldSimBench включает в себя Явную Восприимчивую Оценку и Неявную Манипулятивную Оценку, охватывая оценки предпочтений человека с визуальной точки зрения и оценки на уровне действий во воплощенных задачах, охватывая три типичных воплощенных сценария: Открытое Воплощенное Окружение, Автономное Вождение и Робототехническое Манипулирование. В Явной Восприимчивой Оценке мы представляем набор данных HF-Embodied, набор данных для оценки видео на основе тонкой обратной связи человека, который мы используем для обучения Оценщика Предпочтений Человека, который соответствует человеческому восприятию и явно оценивает визуальную достоверность Мировых Симуляторов. В Неявной Манипулятивной Оценке мы оцениваем согласованность видео-действий Мировых Симуляторов, оценивая, может ли сгенерированное видео, осведомленное о ситуации, точно переводиться в правильные управляющие сигналы в динамических средах. Наша всеобъемлющая оценка предлагает ключевые идеи, которые могут стимулировать дальнейшие инновации в моделях генерации видео, позиционируя Мировые Симуляторы как ключевое достижение в направлении воплощенного искусственного интеллекта.
English
Recent advancements in predictive models have demonstrated exceptional
capabilities in predicting the future state of objects and scenes. However, the
lack of categorization based on inherent characteristics continues to hinder
the progress of predictive model development. Additionally, existing benchmarks
are unable to effectively evaluate higher-capability, highly embodied
predictive models from an embodied perspective. In this work, we classify the
functionalities of predictive models into a hierarchy and take the first step
in evaluating World Simulators by proposing a dual evaluation framework called
WorldSimBench. WorldSimBench includes Explicit Perceptual Evaluation and
Implicit Manipulative Evaluation, encompassing human preference assessments
from the visual perspective and action-level evaluations in embodied tasks,
covering three representative embodied scenarios: Open-Ended Embodied
Environment, Autonomous, Driving, and Robot Manipulation. In the Explicit
Perceptual Evaluation, we introduce the HF-Embodied Dataset, a video assessment
dataset based on fine-grained human feedback, which we use to train a Human
Preference Evaluator that aligns with human perception and explicitly assesses
the visual fidelity of World Simulators. In the Implicit Manipulative
Evaluation, we assess the video-action consistency of World Simulators by
evaluating whether the generated situation-aware video can be accurately
translated into the correct control signals in dynamic environments. Our
comprehensive evaluation offers key insights that can drive further innovation
in video generation models, positioning World Simulators as a pivotal
advancement toward embodied artificial intelligence.Summary
AI-Generated Summary