구현된 추론기(Embodied-Reasoner): 시각적 탐색, 추론, 그리고 행동의 시너지를 통한 구현된 상호작용 작업
Embodied-Reasoner: Synergizing Visual Search, Reasoning, and Action for Embodied Interactive Tasks
March 27, 2025
저자: Wenqi Zhang, Mengna Wang, Gangao Liu, Xu Huixin, Yiwei Jiang, Yongliang Shen, Guiyang Hou, Zhe Zheng, Hang Zhang, Xin Li, Weiming Lu, Peng Li, Yueting Zhuang
cs.AI
초록
최근 딥 씽킹 모델의 발전은 수학 및 코딩 작업에서 놀라운 추론 능력을 보여주었습니다. 그러나 이미지와 행동이 교차하는 궤적을 통해 환경과 지속적으로 상호작용해야 하는 구체화된(embodied) 영역에서의 효과성은 여전히 크게 탐구되지 않고 있습니다. 본 연구에서는 o1 스타일 추론을 상호작용형 구체화 탐색 작업으로 확장한 Embodied Reasoner 모델을 제시합니다. 논리적 추론에 주로 의존하는 수학적 추론과 달리, 구체화된 시나리오는 공간적 이해, 시간적 추론, 그리고 상호작용 이력에 기반한 지속적인 자기 반영을 요구합니다. 이러한 도전 과제를 해결하기 위해, 우리는 64,000개의 상호작용 이미지와 90,000개의 다양한 사고 과정(분석, 공간 추론, 반영, 계획, 검증)을 포함하는 9,300개의 일관된 관찰-사고-행동 궤적을 합성했습니다. 우리는 모방 학습, 거부 샘플링을 통한 자기 탐색, 그리고 반영 튜닝을 통한 자기 수정을 통해 모델의 능력을 점진적으로 향상시키는 3단계 학습 파이프라인을 개발했습니다. 평가 결과, 우리의 모델은 OpenAI o1, o3-mini, Claude-3.7과 같은 고급 시각 추론 모델을 크게 능가하며, 각각 +9%, +24%, +13%의 성능 향상을 보였습니다. 분석 결과, 우리 모델은 반복 탐색과 논리적 불일치가 적으며, 특히 복잡한 장기 작업에서 두드러진 장점을 보였습니다. 실제 환경에서도 우리 모델의 우수성이 확인되었으며, 반복 탐색과 논리적 불일치 사례가 적은 것으로 나타났습니다.
English
Recent advances in deep thinking models have demonstrated remarkable
reasoning capabilities on mathematical and coding tasks. However, their
effectiveness in embodied domains which require continuous interaction with
environments through image action interleaved trajectories remains largely
-unexplored. We present Embodied Reasoner, a model that extends o1 style
reasoning to interactive embodied search tasks. Unlike mathematical reasoning
that relies primarily on logical deduction, embodied scenarios demand spatial
understanding, temporal reasoning, and ongoing self-reflection based on
interaction history. To address these challenges, we synthesize 9.3k coherent
Observation-Thought-Action trajectories containing 64k interactive images and
90k diverse thinking processes (analysis, spatial reasoning, reflection,
planning, and verification). We develop a three-stage training pipeline that
progressively enhances the model's capabilities through imitation learning,
self-exploration via rejection sampling, and self-correction through reflection
tuning. The evaluation shows that our model significantly outperforms those
advanced visual reasoning models, e.g., it exceeds OpenAI o1, o3-mini, and
Claude-3.7 by +9\%, 24\%, and +13\%. Analysis reveals our model exhibits fewer
repeated searches and logical inconsistencies, with particular advantages in
complex long-horizon tasks. Real-world environments also show our superiority
while exhibiting fewer repeated searches and logical inconsistency cases.Summary
AI-Generated Summary