ChatPaper.aiChatPaper

HY3D-Bench: Erzeugung von 3D-Assets

HY3D-Bench: Generation of 3D Assets

February 3, 2026
papers.authors: Team Hunyuan3D, Bowen Zhang, Chunchao Guo, Dongyuan Guo, Haolin Liu, Hongyu Yan, Huiwen Shi, Jiaao Yu, Jiachen Xu, Jingwei Huang, Kunhong Li, Lifu Wang, Linus, Penghao Wang, Qingxiang Lin, Ruining Tang, Xianghui Yang, Yang Li, Yirui Guan, Yunfei Zhao, Yunhan Yang, Zeqiang Lai, Zhihao Liang, Zibo Zhao
cs.AI

papers.abstract

Während jüngste Fortschritte bei neuronalen Repräsentationen und generativen Modellen die 3D-Inhaltserstellung revolutioniert haben, ist das Feld nach wie vor durch erhebliche Datenverarbeitungsengpässe eingeschränkt. Um dies zu adressieren, stellen wir HY3D-Bench vor, ein Open-Source-Ökosystem, das darauf abzielt, eine einheitliche, hochwertige Grundlage für 3D-Generierung zu schaffen. Unsere Beiträge sind dreifach: (1) Wir kuratieren eine Bibliothek von 250.000 hochwertigen 3D-Objekten, die aus groß angelegten Repositorien destilliert wurden, und setzen dabei eine rigorose Pipeline ein, um trainingsfertige Artefakte wie wasserdichte Meshes und Multi-View-Renderings bereitzustellen; (2) Wir führen eine strukturierte, teilbasierte Zerlegung ein, die die für feinkörnige Wahrnehmung und kontrollierbare Bearbeitung essentielle Granularität bietet; und (3) Wir überbrücken Verteilungslücken aus der realen Welt mittels einer skalierbaren AIGC-Synthesepipeline und tragen so 125.000 synthetische Assets bei, um die Diversität in Long-Tail-Kategorien zu erhöhen. Empirisch validiert durch das Training von Hunyuan3D-2.1-Small, demokratisiert HY3D-Bench den Zugang zu robusten Datenressourcen und zielt darauf ab, Innovationen in den Bereichen 3D-Wahrnehmung, Robotik und digitale Inhaltserstellung zu katalysieren.
English
While recent advances in neural representations and generative models have revolutionized 3D content creation, the field remains constrained by significant data processing bottlenecks. To address this, we introduce HY3D-Bench, an open-source ecosystem designed to establish a unified, high-quality foundation for 3D generation. Our contributions are threefold: (1) We curate a library of 250k high-fidelity 3D objects distilled from large-scale repositories, employing a rigorous pipeline to deliver training-ready artifacts, including watertight meshes and multi-view renderings; (2) We introduce structured part-level decomposition, providing the granularity essential for fine-grained perception and controllable editing; and (3) We bridge real-world distribution gaps via a scalable AIGC synthesis pipeline, contributing 125k synthetic assets to enhance diversity in long-tail categories. Validated empirically through the training of Hunyuan3D-2.1-Small, HY3D-Bench democratizes access to robust data resources, aiming to catalyze innovation across 3D perception, robotics, and digital content creation.
PDF211February 6, 2026