HY3D-Bench: Generazione di Asset 3D
HY3D-Bench: Generation of 3D Assets
February 3, 2026
Autori: Team Hunyuan3D, Bowen Zhang, Chunchao Guo, Dongyuan Guo, Haolin Liu, Hongyu Yan, Huiwen Shi, Jiaao Yu, Jiachen Xu, Jingwei Huang, Kunhong Li, Lifu Wang, Linus, Penghao Wang, Qingxiang Lin, Ruining Tang, Xianghui Yang, Yang Li, Yirui Guan, Yunfei Zhao, Yunhan Yang, Zeqiang Lai, Zhihao Liang, Zibo Zhao
cs.AI
Abstract
Sebbene i recenti progressi nelle rappresentazioni neurali e nei modelli generativi abbiano rivoluzionato la creazione di contenuti 3D, il campo rimane limitato da significativi colli di bottiglia nell'elaborazione dei dati. Per affrontare questo problema, introduciamo HY3D-Bench, un ecosistema open-source progettato per stabilire una base unificata e di alta qualità per la generazione 3D. I nostri contributi sono triplici: (1) Abbiamo curato una libreria di 250k oggetti 3D ad alta fedeltà distillati da repository su larga scala, impiegando una pipeline rigorosa per fornire artefatti pronti per l'addestramento, inclusi mesh a tenuta d'acqua e rendering multi-vista; (2) Introduciamo una scomposizione strutturata a livello di parti, fornendo la granularità essenziale per una percezione fine e un editing controllabile; e (3) Colmiamo le lacune distributive del mondo reale tramite una pipeline scalabile di sintesi AIGC, contribuendo con 125k asset sintetici per migliorare la diversità nelle categorie a coda lunga. Convalidato empiricamente attraverso l'addestramento di Hunyuan3D-2.1-Small, HY3D-Bench democratizza l'accesso a risorse dati robuste, con l'obiettivo di catalizzare l'innovazione nella percezione 3D, nella robotica e nella creazione di contenuti digitali.
English
While recent advances in neural representations and generative models have revolutionized 3D content creation, the field remains constrained by significant data processing bottlenecks. To address this, we introduce HY3D-Bench, an open-source ecosystem designed to establish a unified, high-quality foundation for 3D generation. Our contributions are threefold: (1) We curate a library of 250k high-fidelity 3D objects distilled from large-scale repositories, employing a rigorous pipeline to deliver training-ready artifacts, including watertight meshes and multi-view renderings; (2) We introduce structured part-level decomposition, providing the granularity essential for fine-grained perception and controllable editing; and (3) We bridge real-world distribution gaps via a scalable AIGC synthesis pipeline, contributing 125k synthetic assets to enhance diversity in long-tail categories. Validated empirically through the training of Hunyuan3D-2.1-Small, HY3D-Bench democratizes access to robust data resources, aiming to catalyze innovation across 3D perception, robotics, and digital content creation.