ChatPaper.aiChatPaper

MesaTask: Auf dem Weg zur aufgabengetriebenen Tischszenerie-Generierung durch 3D-räumliches Schließen

MesaTask: Towards Task-Driven Tabletop Scene Generation via 3D Spatial Reasoning

September 26, 2025
papers.authors: Jinkun Hao, Naifu Liang, Zhen Luo, Xudong Xu, Weipeng Zhong, Ran Yi, Yichen Jin, Zhaoyang Lyu, Feng Zheng, Lizhuang Ma, Jiangmiao Pang
cs.AI

papers.abstract

Die Fähigkeit von Robotern, menschliche Anweisungen zu interpretieren und Manipulationsaufgaben auszuführen, erfordert die Verfügbarkeit von aufgabenrelevanten Tischszenen für das Training. Traditionelle Methoden zur Erstellung dieser Szenen beruhen jedoch auf zeitaufwändigem manuellem Layout-Design oder rein zufälligen Anordnungen, die in Bezug auf Plausibilität oder Aufgabenausrichtung begrenzt sind. In diesem Artikel formulieren wir eine neuartige Aufgabe, nämlich die aufgabenorientierte Tischszenengenerierung, die aufgrund der erheblichen Lücke zwischen hochrangigen Aufgabenanweisungen und den Tischszenen erhebliche Herausforderungen darstellt. Um die Forschung zu einer solch anspruchsvollen Aufgabe zu unterstützen, stellen wir MesaTask-10K vor, einen umfangreichen Datensatz, der etwa 10.700 synthetische Tischszenen mit manuell gestalteten Layouts umfasst, die realistische Anordnungen und komplexe Inter-Objekt-Beziehungen gewährleisten. Um die Lücke zwischen Aufgaben und Szenen zu überbrücken, schlagen wir eine Spatial Reasoning Chain vor, die den Generierungsprozess in Objektinferenz, räumliche Interrelationsanalyse und Szenengraphenkonstruktion für das finale 3D-Layout unterteilt. Wir präsentieren MesaTask, ein LLM-basiertes Framework, das diese Reasoning Chain nutzt und durch DPO-Algorithmen weiter verbessert wird, um physikalisch plausible Tischszenen zu generieren, die gut mit gegebenen Aufgabenbeschreibungen übereinstimmen. Umfangreiche Experimente demonstrieren die überlegene Leistung von MesaTask im Vergleich zu Baseline-Methoden bei der Generierung von aufgabenkonformen Tischszenen mit realistischen Layouts. Die Projektseite befindet sich unter https://mesatask.github.io/.
English
The ability of robots to interpret human instructions and execute manipulation tasks necessitates the availability of task-relevant tabletop scenes for training. However, traditional methods for creating these scenes rely on time-consuming manual layout design or purely randomized layouts, which are limited in terms of plausibility or alignment with the tasks. In this paper, we formulate a novel task, namely task-oriented tabletop scene generation, which poses significant challenges due to the substantial gap between high-level task instructions and the tabletop scenes. To support research on such a challenging task, we introduce MesaTask-10K, a large-scale dataset comprising approximately 10,700 synthetic tabletop scenes with manually crafted layouts that ensure realistic layouts and intricate inter-object relations. To bridge the gap between tasks and scenes, we propose a Spatial Reasoning Chain that decomposes the generation process into object inference, spatial interrelation reasoning, and scene graph construction for the final 3D layout. We present MesaTask, an LLM-based framework that utilizes this reasoning chain and is further enhanced with DPO algorithms to generate physically plausible tabletop scenes that align well with given task descriptions. Exhaustive experiments demonstrate the superior performance of MesaTask compared to baselines in generating task-conforming tabletop scenes with realistic layouts. Project page is at https://mesatask.github.io/
PDF283September 29, 2025