FullPart: Erzeugung jedes 3D-Teils in voller Auflösung
FullPart: Generating each 3D Part at Full Resolution
October 30, 2025
papers.authors: Lihe Ding, Shaocong Dong, Yaokun Li, Chenjian Gao, Xiao Chen, Rui Han, Yihao Kuang, Hong Zhang, Bo Huang, Zhanpeng Huang, Zibin Wang, Dan Xu, Tianfan Xue
cs.AI
papers.abstract
Die teilbasierte 3D-Generierung birgt großes Potenzial für verschiedene Anwendungen.
Bisherige Teilgeneratoren, die Teile durch implizite Vektor-Set-Tokens repräsentieren,
leiden häufig unter unzureichenden geometrischen Details. Ein anderer Forschungsansatz
verwendet eine explizite Voxeldarstellung, teilt jedoch ein globales Voxelgitter für alle
Teile; dies führt oft dazu, dass kleine Teile zu wenige Voxel belegen, was ihre Qualität
verschlechtert. In dieser Arbeit stellen wir FullPart vor, ein neuartiges Framework, das
sowohl implizite als auch explizite Paradigmen kombiniert. Es leitet zunächst das
Bounding-Box-Layout durch einen impliziten Box-Vektor-Set-Diffusionsprozess ab – eine
Aufgabe, die implizite Diffusion effektiv bewältigt, da Box-Tokens nur wenige geometrische
Details enthalten. Anschließend generiert es detaillierte Teile, jeweils innerhalb eines
eigenen festen Voxelgitters in voller Auflösung. Anstatt einen globalen Niedrigauflösungsraum
zu teilen, wird bei unserer Methode jedes Teil – selbst kleine – in voller Auflösung
generiert, was die Synthese komplexer Details ermöglicht. Wir führen zudem eine
Zentrumspunkt-Codierungsstrategie ein, um das Fehlausrichtungsproblem beim Austausch von
Informationen zwischen Teilen unterschiedlicher tatsächlicher Größe zu lösen und so die
globale Kohärenz zu wahren. Darüber hinaus stellen wir zur Bewältigung der Knappheit an
verlässlichen Teildaten PartVerse-XL vor, den größten menschlich annotierten 3D-Teil-Datensatz
bisher mit 40.000 Objekten und 320.000 Teilen. Umfangreiche Experimente belegen, dass
FullPart state-of-the-art Ergebnisse in der 3D-Teilegenerierung erzielt. Wir werden allen
Code, alle Daten und Modelle veröffentlichen, um zukünftige Forschung in der 3D-Teilegenerierung
zu unterstützen.
English
Part-based 3D generation holds great potential for various applications.
Previous part generators that represent parts using implicit vector-set tokens
often suffer from insufficient geometric details. Another line of work adopts
an explicit voxel representation but shares a global voxel grid among all
parts; this often causes small parts to occupy too few voxels, leading to
degraded quality. In this paper, we propose FullPart, a novel framework that
combines both implicit and explicit paradigms. It first derives the bounding
box layout through an implicit box vector-set diffusion process, a task that
implicit diffusion handles effectively since box tokens contain little
geometric detail. Then, it generates detailed parts, each within its own fixed
full-resolution voxel grid. Instead of sharing a global low-resolution space,
each part in our method - even small ones - is generated at full resolution,
enabling the synthesis of intricate details. We further introduce a
center-point encoding strategy to address the misalignment issue when
exchanging information between parts of different actual sizes, thereby
maintaining global coherence. Moreover, to tackle the scarcity of reliable part
data, we present PartVerse-XL, the largest human-annotated 3D part dataset to
date with 40K objects and 320K parts. Extensive experiments demonstrate that
FullPart achieves state-of-the-art results in 3D part generation. We will
release all code, data, and model to benefit future research in 3D part
generation.