HY3D-Bench: Генерация 3D-ассетов
HY3D-Bench: Generation of 3D Assets
February 3, 2026
Авторы: Team Hunyuan3D, Bowen Zhang, Chunchao Guo, Dongyuan Guo, Haolin Liu, Hongyu Yan, Huiwen Shi, Jiaao Yu, Jiachen Xu, Jingwei Huang, Kunhong Li, Lifu Wang, Linus, Penghao Wang, Qingxiang Lin, Ruining Tang, Xianghui Yang, Yang Li, Yirui Guan, Yunfei Zhao, Yunhan Yang, Zeqiang Lai, Zhihao Liang, Zibo Zhao
cs.AI
Аннотация
В то время как последние достижения в области нейронных представлений и генеративных моделей произвели революцию в создании 3D-контента, эта область по-прежнему ограничена значительными узкими местами в обработке данных. Для решения этой проблемы мы представляем HY3D-Bench — экосистему с открытым исходным кодом, предназначенную для создания единой высококачественной основы для 3D-генерации. Наш вклад трехгранен: (1) Мы создали библиотеку из 250 тысяч высококачественных 3D-объектов, отобранных из крупномасштабных репозиториев, используя строгий конвейер обработки для предоставления готовых к обучению артефактов, включая водонепроницаемые сетки и рендеры с нескольких ракурсов; (2) Мы вводим структурированную декомпозицию на уровне деталей, обеспечивая необходимую детализацию для тонкого восприятия и контролируемого редактирования; и (3) Мы преодолеваем разрыв распределений реального мира с помощью масштабируемого конвейера AIGC-синтеза, добавляя 125 тысяч синтетических активов для повышения разнообразия в редко встречающихся категориях. Эмпирически подтвержденная на примере обучения модели Hunyuan3D-2.1-Small, система HY3D-Bench демократизирует доступ к надежным данным, стремясь стимулировать инновации в сферах 3D-восприятия, робототехники и создания цифрового контента.
English
While recent advances in neural representations and generative models have revolutionized 3D content creation, the field remains constrained by significant data processing bottlenecks. To address this, we introduce HY3D-Bench, an open-source ecosystem designed to establish a unified, high-quality foundation for 3D generation. Our contributions are threefold: (1) We curate a library of 250k high-fidelity 3D objects distilled from large-scale repositories, employing a rigorous pipeline to deliver training-ready artifacts, including watertight meshes and multi-view renderings; (2) We introduce structured part-level decomposition, providing the granularity essential for fine-grained perception and controllable editing; and (3) We bridge real-world distribution gaps via a scalable AIGC synthesis pipeline, contributing 125k synthetic assets to enhance diversity in long-tail categories. Validated empirically through the training of Hunyuan3D-2.1-Small, HY3D-Bench democratizes access to robust data resources, aiming to catalyze innovation across 3D perception, robotics, and digital content creation.