ChatPaper.aiChatPaper

FullPart: Erzeugung jedes 3D-Teils in voller Auflösung

FullPart: Generating each 3D Part at Full Resolution

October 30, 2025
papers.authors: Lihe Ding, Shaocong Dong, Yaokun Li, Chenjian Gao, Xiao Chen, Rui Han, Yihao Kuang, Hong Zhang, Bo Huang, Zhanpeng Huang, Zibin Wang, Dan Xu, Tianfan Xue
cs.AI

papers.abstract

Die teilbasierte 3D-Generierung birgt großes Potenzial für verschiedene Anwendungen. Bisherige Teilgeneratoren, die Teile durch implizite Vektor-Set-Tokens repräsentieren, leiden häufig unter unzureichenden geometrischen Details. Ein anderer Forschungsansatz verwendet eine explizite Voxeldarstellung, teilt jedoch ein globales Voxelgitter für alle Teile; dies führt oft dazu, dass kleine Teile zu wenige Voxel belegen, was ihre Qualität verschlechtert. In dieser Arbeit stellen wir FullPart vor, ein neuartiges Framework, das sowohl implizite als auch explizite Paradigmen kombiniert. Es leitet zunächst das Bounding-Box-Layout durch einen impliziten Box-Vektor-Set-Diffusionsprozess ab – eine Aufgabe, die implizite Diffusion effektiv bewältigt, da Box-Tokens nur wenige geometrische Details enthalten. Anschließend generiert es detaillierte Teile, jeweils innerhalb eines eigenen festen Voxelgitters in voller Auflösung. Anstatt einen globalen Niedrigauflösungsraum zu teilen, wird bei unserer Methode jedes Teil – selbst kleine – in voller Auflösung generiert, was die Synthese komplexer Details ermöglicht. Wir führen zudem eine Zentrumspunkt-Codierungsstrategie ein, um das Fehlausrichtungsproblem beim Austausch von Informationen zwischen Teilen unterschiedlicher tatsächlicher Größe zu lösen und so die globale Kohärenz zu wahren. Darüber hinaus stellen wir zur Bewältigung der Knappheit an verlässlichen Teildaten PartVerse-XL vor, den größten menschlich annotierten 3D-Teil-Datensatz bisher mit 40.000 Objekten und 320.000 Teilen. Umfangreiche Experimente belegen, dass FullPart state-of-the-art Ergebnisse in der 3D-Teilegenerierung erzielt. Wir werden allen Code, alle Daten und Modelle veröffentlichen, um zukünftige Forschung in der 3D-Teilegenerierung zu unterstützen.
English
Part-based 3D generation holds great potential for various applications. Previous part generators that represent parts using implicit vector-set tokens often suffer from insufficient geometric details. Another line of work adopts an explicit voxel representation but shares a global voxel grid among all parts; this often causes small parts to occupy too few voxels, leading to degraded quality. In this paper, we propose FullPart, a novel framework that combines both implicit and explicit paradigms. It first derives the bounding box layout through an implicit box vector-set diffusion process, a task that implicit diffusion handles effectively since box tokens contain little geometric detail. Then, it generates detailed parts, each within its own fixed full-resolution voxel grid. Instead of sharing a global low-resolution space, each part in our method - even small ones - is generated at full resolution, enabling the synthesis of intricate details. We further introduce a center-point encoding strategy to address the misalignment issue when exchanging information between parts of different actual sizes, thereby maintaining global coherence. Moreover, to tackle the scarcity of reliable part data, we present PartVerse-XL, the largest human-annotated 3D part dataset to date with 40K objects and 320K parts. Extensive experiments demonstrate that FullPart achieves state-of-the-art results in 3D part generation. We will release all code, data, and model to benefit future research in 3D part generation.
PDF61December 2, 2025